L’ordine conta come l’intelligenza artificiale lotta con il rovescio
L'importanza dell'ordine nel contrasto dell'intelligenza artificiale con il caos
|INTELLIGENZA ARTIFICIALE| MODELLI DI LINGUA GRANDI|
Come e perché la maledizione del rovesciamento influisce sui grandi modelli di lingua
I modelli di lingua grandi hanno spopolato nel mondo. Ogni giorno sembrano mostrare capacità sempre migliori, ma hanno delle limitazioni? Sembra di no, eppure in alcuni casi riescono a fallire.
L’ovvio non è così facile.
Ci siamo abituati alle incredibili performance di modelli capaci di generare codice o testi complessi con una velocità incredibile, e alcuni ricercatori hanno suggerito che potrebbero persino essere consapevoli.
Tuttavia, ci sono anche report in cui i modelli di lingua grandi sono in grado di fallire spettacolarmente. In alcuni studi precedenti, gli autori hanno notato che ci sono alcune istanze di programmazione con cui i modelli non riescono ad affrontare. O ancora, i modelli di lingua grandi hanno difficoltà con il sarcasmo (per essere onesti, come del resto molti umani).
- 5 libri gratuiti per padroneggiare il Machine Learning
- Ricercatori di Microsoft presentano Table-GPT Elevare i modelli di linguaggio per eccellere nella comprensione delle tabelle bidimensionali e nei compiti.
- AI comprensibile Svelando i modelli della scatola nera
L’IA è divertente? Forse, un po’
Perché l’IA sta ancora lottando con l’umorismo e perché questo è un passo importante
levelup.gitconnected.com
Recentemente, un articolo ha mostrato come i modelli di lingua grandi sorprendentemente non siano in grado di generalizzare in ciò che è considerato un compito banale per gli umani:
Se un umano apprende il fatto “Olaf Scholz è stato il nono Cancelliere della Germania”, può anche rispondere correttamente a “Chi è stato il nono Cancelliere della Germania?”. Questa è una forma così basilare di generalizzazione che sembra banale. Eppure mostriamo che i modelli di linguaggio auto-regressivi non riescono a generalizzare in questo modo. (fonte)
Se i modelli vengono addestrati su un testo con la forma “<nome> è <descrizione>”, potrebbero non essere in grado di prevedere l’opposto “<descrizione> è <nome>” (o nella forma logica se A è B, B è A).