Gli laureati cercano oltre l’hype in Generative AI

La ricerca dei laureati va al di là dell'hype nella Generative AI

Raj Reddy, vincitore del premio Turing, è particolarmente interessato a come l'IA generativa possa contribuire a ridurre le divisioni linguistiche e di alfabetizzazione. ¶ Credito: Heidelberg Laureate Forum Foundation

Quando ChatGPT è stato rilasciato meno di un anno fa, sembrava segnare un punto di svolta per l’intelligenza artificiale (IA). Il chatbot creato da OpenAI ha fatto notizia grazie alle sue conversazioni testuali sofisticate e simili all’essere umano, rese possibili dall’IA generativa: algoritmi che apprendono modelli dai dati su cui vengono addestrati per produrre output con caratteristiche simili. La tecnologia aveva precedentemente fatto parlare di sé per le sue capacità di generazione di immagini, con sistemi come DALL-E e Stable Diffusion capaci di produrre visualizzazioni fotorealistiche a partire dalle descrizioni testuali fornite dagli esseri umani.

C’è molta enfasi associata all’IA generativa. Alcuni esperti hanno addirittura speculato che alcuni sistemi potrebbero essere senzienti, come ha fatto l’anno scorso un ingegnere che lavora su un’intelligenza artificiale di Google chiamata LaMDA. Altri, tuttavia, sostengono che la loro produzione sia meno impressionante di quanto sembri.

A settembre presso il Forum dei laureati di Heidelberg, una conferenza di networking in cui giovani ricercatori di matematica e informatica trascorrono una settimana interagendo con i laureati dei loro campi a Heidelberg, in Germania, l’IA generativa è stata un tema caldo. Alcuni dei laureati che hanno ricevuto il premio ACM A.M. Turing, conferito per importanti contributi alle scienze informatiche e spesso definito il “Premio Nobel dell’Informatica”, hanno discusso sugli usi potenziali e le prospettive per la tecnologia.

I laureati al Forum dei laureati di Heidelberg di quest’anno. Credito: Heidelberg Laureate Forum Foundation

L’IA generativa ora può essere utilizzata per scrivere saggi e codice informatico, accelerare la scoperta di farmaci, creare nuovi design e offrire raccomandazioni di prodotti personalizzate, tra le altre cose. Tuttavia, Raj Reddy, un laureato del premio Turing e professore di informatica e robotica all’Università Carnegie Mellon di Pittsburgh, è particolarmente interessato a come possa contribuire a ridurre le divisioni linguistiche e di alfabetizzazione nella società. In India, ad esempio, il suo paese natale, ci sono 22 lingue ufficiali, il che significa che le persone delle comunità vicine spesso non riescono a parlarsi tra di loro.

Allo stesso tempo, Reddy ha descritto come l’attività economica aumenterebbe se più persone potessero comunicare tra di loro. Questo segue la legge di Metcalfe, proposta per la prima volta dal vincitore del premio ACM A.M. Turing dell’anno precedente, Bob Metcalfe, che afferma che il valore di una rete è proporzionale al quadrato del numero dei suoi utenti. “Penso che il linguaggio parlato e l’alfabetizzazione saranno centrali per il progresso dell’umanità in futuro”, afferma Reddy.

Reddy è entusiasta di come l’IA generativa potrebbe essere utilizzata per i sistemi di traduzione istantanea. L’idea è che il tuo telefono traduca automaticamente ciò che stai dicendo in tempo reale nella lingua di una persona con cui desideri comunicare, sia in modalità wireless che di persona. Sistemi come Google Translate possono già aiutare in qualche misura, ma Reddy ritiene che la tecnologia dell’IA generativa migliorerà significativamente ciò che è possibile fare nei prossimi 15-20 anni. “Non è ancora del tutto fluido e non funziona per tutte le lingue”, dice. “Questo è il lavoro che dobbiamo ancora svolgere”.

I sistemi generativi di intelligenza artificiale non sono sempre accurati, il che può suscitare preoccupazioni. ChatGPT e altri chatbot sono noti per generare a volte informazioni false che presentano come fatti, spesso descritti come allucinazioni. Leslie Valiant, vincitore del Premio Turing e professore di informatica e matematica applicata all’Università di Harvard, ritiene che i attuali sistemi di intelligenza artificiale generativi siano adatti per scopi di intrattenimento o per applicazioni in cui prendere una decisione errata non comporta gravi conseguenze. Tuttavia, è scettico sull’uso di tali sistemi per applicazioni in cui è necessario fidarsi del risultato. “Utilizzare l’IA quando potrebbe uccidere qualcuno a causa di una scelta errata è molto più difficile”, afferma.

L’IA generativa produce output mediante l’apprendimento da vaste quantità di dati. Può farlo meglio degli esseri umani perché sta sfruttando un limite tecnologico in termini di quantità di informazioni che può elaborare. Tuttavia, ci sono altri aspetti dell’intelligenza che non incorpora. “Le nostre capacità cognitive sono fatte di elementi diversi uniti insieme: un po’ di ragionamento, un po’ di apprendimento,” afferma Valiant. “L’IA generativa sta facendo solo una cosa, ma la fa molto bene.”

Valiant ritiene che i sistemi di IA generativa possano essere migliorati fornendo loro capacità di ragionamento. La conoscenza appresa ha un grado di incertezza, ma i sistemi attuali come ChatGPT non sono in grado di riflettere sulla coerenza di ciò che hanno generato. “La logica tradizionale è molto distante dal machine learning,” afferma Valiant. “Penso che il prossimo passo sia mettere il ragionamento al centro dei sistemi di intelligenza artificiale e integrarlo con l’apprendimento.”

Un’altra preoccupazione riguarda l’uso malintenzionato dei sistemi di intelligenza artificiale generativa. Reddy è preoccupato per il possibile abuso delle deepfake, immagini, audio o video generati dall’IA che sembrano reali, e che possono ad esempio far sembrare che un politico dica qualcosa di controverso che in realtà non ha mai detto. “I governi stanno cercando di capire come gestire il bene e il male [della tecnologia di intelligenza artificiale generativa],” afferma Reddy.

Nel frattempo, gli informatici stanno sviluppando modi per combattere l’impersonazione dell’IA. Molte di queste metodologie coinvolgono l’uso dell’IA per individuare piccole anomalie nei media sintetizzati che li identificherebbero come deepfake (come ad esempio, nelle prime video deepfake, le immagini sintetizzate delle persone non facevano alcun battito di ciglio). “Ora, oltre a verificare i materiali testuali, è necessario essere in grado di verificare anche materiali audio e video,” afferma Reddy. “È qualcosa che si può fare, e che sempre più si farà.”

C’è anche la paura che l’IA generativa possa rappresentare una minaccia per la società diventando superintelligente e difficile da controllare da parte degli umani. La teoria dell”ecorithm’ di Valiant afferma che gli algoritmi interagiscono con l’ambiente e imparano da esso, un processo che può avvenire sia nei sistemi computazionali che in quelli biologici, come il cervello. Ciò suggerisce che un sistema di intelligenza artificiale potrebbe iniziare a comportarsi in modi imprevisti in certi ambienti, generando comportamenti potenzialmente dannosi.

Tuttavia, Valiant non è preoccupato che un simile scenario possa verificarsi con l’IA generativa, poiché pensa che comprendiamo abbastanza bene l’intelligenza che inseriamo nelle macchine. “A meno che non vi siano caratteristiche che vadano contro i nostri interessi, non c’è motivo che sviluppino caratteristiche che vadano contro i nostri interessi,” afferma. “Quindi non vedo che [l’IA generativa sfugga al controllo] sia un grande problema nel futuro prevedibile.”

Sandrine Ceurstemont è una scrittrice scientifica freelance con base a Londra, Regno Unito.