Rapporto AI Ricercatori di Stanford esortano le aziende tecnologiche ad essere più trasparenti

I ricercatori di Stanford esortano le aziende tecnologiche a essere più trasparenti il rapporto AI

I ricercatori dell’Università di Stanford hanno pubblicato un rapporto in cui invitano aziende come OpenAI e Google a rivelare ulteriori informazioni relative ai dati e al lavoro umano. In un rapporto del Reuters, gli autori del rapporto hanno evidenziato i modelli fondamentali e la necessità di una maggiore trasparenza.

Percy Liang, professore di Stanford, ricercatore dietro l’Indice di trasparenza del modello fondamentale, ha dichiarato: “È chiaro che negli ultimi tre anni la trasparenza è in calo mentre la capacità sta crescendo a dismisura,… Vediamo questo come un problema molto grave perché abbiamo visto in altri settori come i social media che quando la trasparenza diminuisce, possono accadere cose negative come conseguenza.”.

I modelli in questione, i modelli fondamentali, sono sistemi di intelligenza artificiale addestrati su enormi set di dati in grado di svolgere una serie di compiti diversi. Questo potrebbe includere la generazione di codice, di testo e altro ancora. Come era prevedibile, le aziende che si trovano dietro a questi modelli sono i principali protagonisti dell’attuale impulso della tecnologia AI generativa.

Il rapporto evidenzia come, man mano che questi modelli diventano sempre più integrati nelle aziende e nelle industrie di tutto il mondo, diventa fondamentale comprendere meglio i pregiudizi e i limiti. L’indice sopra menzionato ha valutato dieci modelli popolari su cento diversi indicatori di trasparenza.

Questo includeva i dati di addestramento e la potenza di calcolo. Come risultato, tutti i modelli sono risultati “poco impressionanti”. Ciò include anche il LLAMA 2 di Meta, che ha ottenuto un punteggio di 53 su 100. OpenAI GPT-4 non era molto lontano con un punteggio di 47, mentre Titan di Amazon si piazzava all’ultimo posto con 11.

Gli autori dell’indice sperano che la pubblicazione del rapporto spinga le aziende tecnologiche a diventare più trasparenti con i loro modelli fondamentali. Sperano anche che il rapporto possa fungere da punto di partenza per i governi che sperano di apprendere come regolare al meglio l’IA.

Il progetto è stato realizzato attraverso l’Istituto di Stanford per l’Intelligenza Artificiale Centrata sull’Uomo per la Ricerca sui Modelli Fondamentali. Ciò avviene due mesi dopo gli incontri tra legislatori ed esecutivi del settore tecnologico a Washington D.C. e dopo che importanti aziende tecnologiche come Microsoft, Google e altre hanno apertamente iniziato a promuovere una maggiore comprensione governativa dell’IA.

Anche se sembra ci sia un punto morto tra i legislatori a Washington, la regolamentazione è un argomento scottante a livello globale mentre nazioni e regioni cercano di capire come affrontare l’IA in modo da non ridurne gli effetti positivi previsti della tecnologia.