Google Deepmind Research presenta FunSearch un nuovo metodo di intelligenza artificiale per cercare nuove soluzioni in matematica e informatica.

Google Deepmind Research presenta FunSearch un nuovo metodo di intelligenza artificiale per scoprire nuove soluzioni in matematica e informatica.

LLMs eccellono nella comprensione e generazione di testi simili a quelli umani, consentendo loro di comprendere e generare risposte che imitano il linguaggio umano, migliorando la comunicazione tra macchine e esseri umani. Questi modelli sono versatili e adattabili a diverse attività, tra cui la traduzione linguistica, la sintesi, la risposta alle domande, la generazione di testi, l’analisi del sentimento e altro ancora. La loro flessibilità consente di utilizzarli in vari settori e applicazioni.

Tuttavia, gli LLM talvolta possono visualizzare immagini false, che portano a formulazioni di affermazioni plausibili ma incorrecte. I modelli di Grande Lingua come i modelli GPT sono molto avanzati nella comprensione e generazione del linguaggio, ma possono comunque produrre falsi storici per diverse ragioni. Se l’input o la richiesta fornita al modello è ambigua, contraddittoria o fuorviante, il modello potrebbe generare risposte confuse basate sulla sua interpretazione dell’input.

I ricercatori di Google DeepMind superano questa limitazione proponendo un metodo chiamato FunSearch. Combina un LLM pre-addestrato con un valutatore, che protegge contro le formulazioni di affermazioni e idee errate. FunSearch sviluppa programmi iniziali con punteggi bassi in programmi con punteggi alti per scoprire nuove conoscenze combinando diversi ingredienti essenziali. FunSearch produce programmi che generano le soluzioni desiderate.

FunSearch funziona come un processo iterativo in cui, in ogni ciclo, il sistema seleziona determinati programmi dall’insieme corrente. Questi programmi selezionati vengono quindi elaborati da un LLM, che li espande in modo innovativo, producendo nuovi programmi che vengono sottoposti a valutazione automatica. Quelli più promettenti vengono reintrodotti nell’insieme dei programmi esistenti, creando un ciclo di auto-miglioramento.

I ricercatori campionano i programmi che funzionano meglio e li utilizzano come input per migliorare i LLM. Partono da un programma iniziale come scheletro e sviluppano solo la logica dei programmi critici che influiscono sulle parti. Impostano uno scheletro di programma avido e prendono decisioni posizionando una funzione prioritaria ad ogni passo. Utilizzano metodi evoluzionistici basati su isole per mantenere un ampio pool di programmi diversi. Lo scalano in modo asincrono per ampliare il campo di applicazione del loro approccio nella ricerca di nuovi risultati.

FunSearch utilizza la stessa strategia generale di impacchettamento dei contenitori. Invece di imballare gli oggetti nei contenitori con la capacità minore, assegna gli oggetti alla capacità minore solo se l’adattamento è molto stretto dopo aver posizionato l’oggetto. Questa strategia elimina i piccoli spazi vuoti dei contenitori che è improbabile che vengano riempiti. Uno dei componenti cruciali di FunSearch è che opera nello spazio dei programmi anziché cercare direttamente costruzioni. Ciò conferisce a FunSearch un potenziale per applicazioni reali.

Certamente, questo segna solo la fase iniziale. Lo sviluppo di FunSearch si allineerà naturalmente all’evoluzione più ampia degli LLM. I ricercatori si impegnano a espandere le sue funzionalità per affrontare le diverse sfide scientifiche ed ingegneristiche critiche presenti nella società.