Nuovo lavoro di DeepMind svela i semi supremi dei comandi per i modelli di linguaggio

Nuovo studio di DeepMind rivela i segreti superiori dei comandi per i modelli di linguaggio

Come i prompt ottimizzati computazionalmente fanno eccellere i modelli di lingua e come tutto ciò influisce sull’ingegneria dei prompt

Foto di Ali Shah Lakhani su Unsplash

Mentre assistiamo all’avanzamento stabile dell’intelligenza artificiale (IA), che riesce a svolgere sempre più compiti complessi mese dopo mese, c’è una preoccupazione generale per il futuro della nostra forza lavoro. Se l’IA continua ad automatizzare molti dei compiti attualmente svolti dagli esseri umani, come saranno fatti gli impieghi di domani? C’è questa idea nell’aria che “programmare questi sistemi sarà lavoro umano per anni”, o che “avremo sempre bisogno di un essere umano per mantenere e riallenare i modelli di IA”, o che “creare prompt efficienti che guidano i modelli di IA nel modo giusto è una competenza umana”. Quest’ultimo, l’oggetto di questo articolo, ha motivato la creazione dell'”ingegneria dei prompt” come “carriera”. E certamente c’è una certa maestria nel redigere prompt efficienti per far fare al modello di IA esattamente ciò che ci si aspetta da esso, o per farlo “pensare” abbastanza bene da migliorare le sue risposte, in particolare per problemi complessi. Ecco un solo esempio:

Creare prompt efficienti per la sommariizzazione con l’uso di grandi modelli di lingua

Distillare i punti chiave dopo più di 2 anni di esperienza e dai tutorial degli sviluppatori di IA, sul lavoro pratico e con esempi.

towardsdatascience.com

Tuttavia, è molto probabile che nessuna di queste interventi umane rimarrà rilevante per sempre. In particolare per l’ingegneria dei prompt, sembra che queste competenze non siano più molto rilevanti, già a breve termine. Continua a leggere per scoprire il motivo e nel frattempo impara dalle interessanti scoperte riportate da DeepMind in una recente preprint, che puoi applicare immediatamente a tuo vantaggio quando utilizzi grandi modelli di lingua (LLM), come ti mostrerò con esempi pratici sulla versione gratuita di ChatGPT.

Ottimizzazione del prompt

Prima di approfondire, è necessario comprendere il concetto di “prompt”. I prompt sono istruzioni inviate ai modelli di IA per dir loro cosa vogliamo che facciano. I modelli di IA rispondono agli input testuali generati dall’utente, o prompt, per generare i loro output – testo, grafica, audio, ecc. La qualità e la specificità dei prompt di input influiscono significativamente sui contenuti e sulla qualità degli output generati dai modelli…