Un esperto di neuroscienze sta chiedendo un neuroscudo.

Un esperto di neuroscienze sta richiedendo un neuroscudo.

In un articolo del Baker Institute for Public Policy della Rice University, un esperto di neuroscienze sostiene che vi sia una “urgente” necessità di sviluppare un sistema di autodifesa digitale contro l’IA. Ciò avviene in un momento di crescente richiesta di regolamentazione dell’IA incentrata sulla sicurezza dell’IA.

Harris Eyre, ricercatore nel settore della salute cerebrale presso il Baker Institute, ha affermato che è necessario regolamentare l’IA avanzata. Ha anche indicato l’uso dei social media potenziati dall’IA per proteggere le persone da ciò che definisce “hacking” dell’IA, che potrebbe danneggiare le relazioni interpersonali e l’intelligenza collettiva.

Nell’articolo, Harris Eyre riconosce come l’IA abbia colmato le lacune nel mondo, ma ha anche indicato molti altri problemi. Scrive in parte: “Anche se tale tecnologia porta l’intero mondo sui nostri dispositivi e offre ampie opportunità di realizzazione individuale e comunitaria, può anche distorto la realtà e creare false illusioni”.

Ma non si tratta solo di visioni sulla realtà, le sue preoccupazioni vanno oltre gli effetti micro ai macro effetti sulla società, come ha scritto: “Diffondendo disinformazione e informazione errata, i social media e l’IA costituiscono una sfida diretta al funzionamento delle nostre democrazie”.

Una delle maggiori preoccupazioni riguarda i deep fake. Eyre sostiene che vi sia un “urgente” bisogno di progettare politiche basate sulle neuroscienze che possano aiutare a proteggere i cittadini dall’uso predatorio dell’IA. Secondo lui, un “neuroscudo”.

Scrive: “Il modo in cui interpretiamo la realtà che ci circonda, il modo in cui apprendiamo e reagiamo, dipende dal modo in cui il nostro cervello è cablato,… Si sostiene che, dato l’improvviso aumento della tecnologia, l’evoluzione non abbia avuto abbastanza tempo per sviluppare quelle regioni del neocortex responsabili delle funzioni cognitive superiori. Di conseguenza, siamo biologicamente vulnerabili ed esposti”.

Il modo in cui funzionerebbe un neuroscudo è attraverso un approccio triplice. Prima di tutto, sviluppare un codice di condotta riguardo all’oggettività delle informazioni. Poi implementare protezioni regolamentari e infine creare un kit didattico per i cittadini.

Eyre sostiene che la cooperazione tra editori, giornalisti, leader dei media, opinionisti e scienziati del cervello possa formare un “codice di condotta” che sostenga l’oggettività delle informazioni. “Come dimostra la neuroscienza, l’ambiguità nella comprensione dei fatti può creare ‘verità alternative’ che diventano fortemente codificate nel nostro cervello”, spiega.

In questa settimana, giganti della tecnologia come Google, Microsoft e OpenAI si sono uniti per formare un organismo industriale focalizzato sulla sicurezza avanzata dell’IA. In Cina, il governo sta già lavorando alla regolamentazione dell’IA attraverso filigrane sui deep fake e quadri regolamentari che le startup e le aziende devono seguire.

Nota dell’Editore: L’IA responsabile sta diventando un argomento critico nello sviluppo dell’IA e se vuoi rimanere in prima linea sugli ultimi sviluppi, allora devi ascoltare i leader del settore che guidano l’azione. Potrai farlo presso il ODSC West 2023 Machine Learning Safety & Security Track. Salva il tuo posto e registrati oggi stesso.