A chi spetta la responsabilità di ottenere l’AI generativa corretta?

Responsabilità per l'AI generativa corretta?

 

Il tasso con cui i dati sono stati creati negli ultimi anni è stato esponenziale, segnalando principalmente la crescente proliferazione del mondo digitale.

Si stima che il 90% dei dati del mondo sia stato generato solo negli ultimi due anni.

Più interagiamo con Internet in forme diverse, come invio di messaggi di testo, condivisione di video o creazione di musica, contribuiamo al pool di dati di addestramento che alimenta le tecnologie di Generative AI (GenAI).

   

In linea di principio, i nostri dati vengono utilizzati come input in questi algoritmi avanzati di intelligenza artificiale che imparano e generano nuovi dati.

 

L’altro lato di GenAI

 

Non c’è bisogno di dire che suona affascinante all’inizio, ma poi iniziano a sorgere rischi sotto forma di disinformazione, uso improprio, pericoli informativi, deepfake, emissioni di carbonio e molti altri.

Inoltre, è importante notare l’impatto di questi modelli nel rendere molti posti di lavoro ridondanti.

Secondo il recente rapporto di McKinsey “Generative AI and the future of work in America”, i lavori che comportano una grande quantità di compiti ripetitivi, raccolta dati e elaborazione dati elementare sono a rischio di diventare obsoleti.

Il rapporto cita l’automazione, inclusa la GenAI, come una delle ragioni del declino della domanda di competenze cognitive e manuali di base.

Inoltre, una preoccupazione fondamentale che è persistita dall’era pre-GenAI e continua a presentare sfide è la privacy dei dati. I dati, che costituiscono il nucleo dei modelli GenAI, sono curati da Internet, che include una parte frazionaria delle nostre identità.

   

Si afferma che un tale LLM è stato addestrato su circa 300 miliardi di parole con dati raccolti da Internet, inclusi libri, articoli, siti web e post. Ciò che preoccupa è che non eravamo a conoscenza della sua raccolta, consumo e utilizzo tutto questo tempo.

MIT Technology Review lo considera “quasi impossibile per OpenAI rispettare le regole sulla protezione dei dati”.

 

L’Open Source è la soluzione?

 

Dato che tutti noi siamo contributori frazionari di questi dati, ci si aspetta che l’algoritmo sia open source e che sia trasparente per tutti.

Mentre i modelli ad accesso aperto forniscono dettagli sul codice, i dati di addestramento, i pesi del modello, l’architettura e i risultati delle valutazioni, essenzialmente tutto ciò che è necessario sapere.

   

Ma la maggior parte di noi sarebbe in grado di comprenderli? Probabilmente no!

Ciò dà origine alla necessità di condividere questi dettagli vitali nel forum appropriato: un comitato di esperti, tra cui responsabili delle politiche, professionisti e rappresentanti del governo.

Questo comitato sarà in grado di decidere cosa è meglio per l’umanità, qualcosa che nessun gruppo individuale, governo o organizzazione può decidere da solo oggi.

Deve considerare l’impatto sulla società come una priorità elevata e valutare gli effetti della GenAI da diverse prospettive: sociale, economica, politica e oltre.

 

La governance non ostacola l’innovazione

 

Tralasciando il componente dei dati, gli sviluppatori di questi modelli colossali fanno enormi investimenti per fornire potenza di calcolo per costruire tali modelli, facendo diventare la loro priorità mantenerli a accesso chiuso.

La natura stessa degli investimenti implica che vogliano un rendimento su tali investimenti utilizzandoli per uso commerciale. Ecco dove inizia la confusione.

Avere un organo di governo in grado di regolare lo sviluppo e il rilascio di applicazioni basate sull’IA non inibisce l’innovazione o ostacola la crescita delle imprese.

Invece, il suo obiettivo principale è costruire linee guida e politiche che facilitino la crescita delle imprese attraverso la tecnologia promuovendo un approccio più responsabile.

Quindi, chi decide il quoziente di responsabilità e come viene creato questo organismo di governo?

 

Necessità di un Forum Responsabile

 

Dovrebbe esserci un ente indipendente composto da esperti provenienti dalla ricerca, dall’accademia, dalle aziende, dai responsabili delle politiche e dai governi/paesi. Per chiarire, indipendente significa che i suoi fondi non devono essere sponsorizzati da alcun attore che possa creare un conflitto di interessi.

Il suo unico obiettivo è pensare, razionalizzare e agire a nome di 8 miliardi di persone in questo mondo e prendere decisioni basate su standard di elevata responsabilità.

Ora, questa è una grande affermazione, il che significa che il gruppo deve essere concentrato al massimo e considerare il compito loro affidato come prioritario. Noi, il mondo, non possiamo permetterci che i decisori che lavorano per una missione così critica la considerino una cosa buona da avere o un progetto secondario, il che significa anche che devono essere finanziati adeguatamente.

Al gruppo è stato assegnato il compito di attuare un piano e una strategia in grado di affrontare i danni senza compromettere la realizzazione dei vantaggi offerti dalla tecnologia.

 

L’abbiamo fatto in passato

 

L’IA è spesso stata paragonata alla tecnologia nucleare. I suoi sviluppi all’avanguardia hanno reso difficile prevedere i rischi ad essa associati.

Citando Rumman da Wired su come l’Agenzia internazionale per l’energia atomica (IAEA) – un organismo indipendente libero da affiliazioni governative e aziendali – sia stata creata per fornire soluzioni alle ramificazioni di ampia portata e alle capacità apparentemente infinite delle tecnologie nucleari.

Quindi, abbiamo esempi di cooperazione globale nel passato in cui il mondo si è unito per mettere ordine nel caos. Sono sicuro che arriveremo a quel punto. Ma è fondamentale convergere e creare presto le linee guida per tenere il passo con il ritmo di evoluzione rapidamente crescente delle implementazioni.

L’umanità non può permettersi di affidarsi a misure volontarie delle aziende, sperando in uno sviluppo e una distribuzione responsabili da parte delle aziende tecnologiche.     Vidhi Chugh è una stratega di intelligenza artificiale e una leader di trasformazione digitale che lavora all’intersezione tra prodotto, scienze e ingegneria per costruire sistemi di apprendimento automatico scalabili. È un’innovatrice premiata, autrice e relatrice internazionale. La sua missione è democratizzare l’apprendimento automatico e sfatare il gergo per permettere a tutti di far parte di questa trasformazione.