I modelli di Machine Learning producono risultati affidabili con dati di formazione limitati? Questa nuova ricerca di intelligenza artificiale da parte dell’Università di Cambridge e Cornell lo scopre..

La ricerca dell'Università di Cambridge e Cornell dimostra che i modelli di Machine Learning possono produrre risultati affidabili con dati di formazione limitati.

Il deep learning si è sviluppato come una tecnica potente e innovativa nell’intelligenza artificiale, con applicazioni che vanno dal riconoscimento del parlato ai sistemi autonomi alla visione artificiale e all’elaborazione del linguaggio naturale. Tuttavia, il modello di deep learning ha bisogno di una quantità significativa di dati per l’addestramento. Per addestrare il modello, una persona annota spesso una notevole quantità di dati, come una collezione di foto. Questo processo è molto lungo e laborioso.

Pertanto, è stato effettuato molto lavoro di ricerca per addestrare il modello con meno dati in modo che l’addestramento del modello diventi più facile. I ricercatori hanno cercato di capire come creare modelli di apprendimento automatico affidabili che possano comprendere equazioni complesse in circostanze reali utilizzando una quantità di dati di addestramento molto inferiore a quella normalmente prevista.

Di conseguenza, i ricercatori dell’Università di Cornell e dell’Università di Cambridge hanno scoperto che i modelli di apprendimento automatico per le equazioni differenziali parziali possono produrre risultati accurati anche quando vengono forniti pochi dati. Le equazioni differenziali parziali sono una classe di equazioni fisiche che descrivono come le cose nel mondo naturale si evolvono nello spazio e nel tempo.

Secondo il dottor Nicolas Boullé dell’Isaac Newton Institute for Mathematical Sciences, addestrare modelli di apprendimento automatico con gli esseri umani è efficiente ma richiede tempo e denaro. Sono curiosi di sapere esattamente quanti dati siano necessari per addestrare questi algoritmi producendo risultati accurati.

I ricercatori hanno utilizzato l’algebra lineare numerica randomizzata e la teoria delle equazioni differenziali parziali per creare un algoritmo in grado di recuperare gli operatori di soluzione delle equazioni differenziali parziali ellittiche tridimensionali dai dati di input-output e di ottenere una convergenza esponenziale dell’errore in relazione alla dimensione dell’insieme di dati di addestramento con una probabilità di successo incredibilmente alta.

Boullé, un INI-Simons Foundation Postdoctoral Fellow, ha detto che le equazioni differenziali parziali sono come i mattoncini della fisica: possono aiutare a spiegare le regole fisiche della natura, come ad esempio come viene mantenuto lo stato stazionario in un blocco di ghiaccio che si sta sciogliendo. I ricercatori ritengono che questi modelli di intelligenza artificiale siano di base, ma potrebbero comunque aiutare a comprendere perché l’IA sia stata così efficace in fisica.

I ricercatori hanno utilizzato un insieme di dati di addestramento con una serie di quantità casuali di dati di input e risposte generate al computer. Hanno poi testato le soluzioni proiettate dell’IA su un nuovo set di dati di input per verificare la loro precisione.

Secondo Boullé, dipende dal campo, ma in fisica hanno scoperto che si può ottenere molto con pochissimi dati. È sorprendente quanto poche informazioni siano necessarie per produrre un modello solido. Hanno detto che le proprietà matematiche di queste equazioni ci permettono di sfruttare la loro struttura e migliorare i modelli.

I ricercatori hanno affermato che è importante assicurarsi che i modelli apprendano il materiale appropriato, ma l’apprendimento automatico per la fisica è un argomento interessante. Secondo Boullé, l’IA può aiutare a risolvere molti affascinanti problemi matematici e fisici.