L’ex CEO di Google avverte che le attuali protezioni dell’AI non sono sufficienti

L'ex CEO di Google mette in guardia le attuali protezioni dell'IA sono insufficienti

Durante il Summit AI+ di Axios, l’ex CEO di Google Eric Schmidt ha avvertito che gli attuali freni all’intelligenza artificiale non sono sufficienti a prevenire danni. L’ex capo di Google ha poi paragonato lo sviluppo dell’intelligenza artificiale all’introduzione delle armi nucleari durante la Seconda Guerra Mondiale.

Parlando, il signor Schmidt ha affermato che i freni all’IA che le aziende stanno aggiungendo ai loro prodotti alimentati dall’intelligenza artificiale “non sono sufficienti” per affrontare i potenziali danni. Secondo lui, l’umanità potrebbe essere coinvolta entro i prossimi dieci o cinque anni.

Come molti hanno constatato, la sicurezza dell’IA è stata un tema caldo poiché l’IA ha continuato a diffondersi in tutto il mondo. Diversi organismi di governo hanno cercato di affrontare le preoccupazioni legate all’IA, alla privacy dei dati, alla sicurezza e ad altri pericoli.

Tornando al summit sull’IA, Schmidt ha paragonato lo sviluppo dell’IA a quello delle armi nucleari. Ha detto in parte: “Dopo Nagasaki e Hiroshima, ci sono voluti 18 anni per arrivare a un trattato sui divieti di prova e cose del genere. Non abbiamo quel tipo di tempo oggi”.

Dal suo punto di vista, il pericolo arriva “al punto in cui il computer può iniziare a prendere decisioni autonome per fare cose”. Ciò diventa ancora più delicato quando l’IA viene integrata nei sistemi di armamento e in altri sistemi di difesa.

Ora, quali mosse devono essere compiute per garantire la sicurezza dell’IA? Secondo Eric Schmidt, sarà necessario un organismo globale, simile al Panel Intergovernativo sui Cambiamenti Climatici, per “fornire informazioni accurate agli attori politici”.

Con un organismo del genere, gli attori politici di tutto il mondo avrebbero le informazioni necessarie per prendere decisioni razionali legate all’IA. Anche se Eric è preoccupato per l’IA, ha comunque una visione ottimistica della tecnologia.

In particolare, di come l’IA potrebbe diventare un beneficio netto per l’intera popolazione umana. “Ti sfido a sostenere che un medico IA o un tutor IA sia qualcosa di negativo. Deve essere buono per il mondo”. La visione di Eric Schmidt sull’IA non è unica.

Come abbiamo visto quest’anno, professionisti dentro e fuori dal settore tecnologico hanno spinto per maggiore responsabilità e ricerca sulla sicurezza dell’IA. Alcuni sono addirittura arrivati ad appellarsi a una pausa nella ricerca su LLM più potenti di GPT-4.

Mentre il 2023 è stato l’anno dell’adozione dell’IA, il 2024 potrebbe essere l’anno della sicurezza dell’IA.