OpenAI, Microsoft e Google formano un organismo per aiutare a regolamentare lo sviluppo dell’IA
OpenAI, Microsoft e Google formano un organismo per regolamentare l'IA
Il Frontier Model Forum è una nuova organizzazione creata da OpenAI, Microsoft, Anthropic e Google per concentrarsi sullo sviluppo “sicuro e responsabile” dei modelli AI di frontiera. Questo nuovo organismo industriale riunisce quattro dei giganti tecnologici più influenti nello sviluppo dell’AI.
Secondo il gruppo, il loro focus sarà su ciò che viene chiamato modelli AI di frontiera, ossia modelli AI più avanzati di quelli attualmente disponibili. Brad Smith, presidente di Microsoft, ha dichiarato riguardo alla loro motivazione: “Le aziende che creano tecnologia AI hanno la responsabilità di garantire che sia sicura, protetta e rimanga sotto il controllo umano,… Questa iniziativa è un passo vitale per unire il settore tecnologico nell’avanzare responsabilmente l’AI e affrontare le sfide in modo che benefici tutta l’umanità”.
I membri fondatori del forum hanno dichiarato che i loro obiettivi sono promuovere la ricerca sulla sicurezza dell’AI. Parte di ciò comporta lo sviluppo di standard per l’elevazione dei modelli, incoraggiare lo sviluppo responsabile di modelli AI avanzati, discutere dei rischi di fiducia e sicurezza con leader politici e accademici e contribuire allo sviluppo di utilizzi positivi per l’AI.
- Padroneggiare l’arte dell’IA una guida concisa al percorso intermedio e all’ingegneria delle istruzioni
- I migliori generatori di giochi AI nel 2023
- Incontra REPLUG un framework di modellazione del linguaggio (LM) a recupero potenziato che combina un modello di linguaggio congelato con un recuperatore congelato/regolabile, migliorando le prestazioni di GPT-3 (175B) nella modellazione del linguaggio del 6,3%.
Quindi, questi utilizzi positivi riguardano la sanità e la scienza del clima. L’adesione è aperta a qualsiasi organizzazione che soddisfi criteri specifici. Secondo un post sul blog di Microsoft, per essere membro del Frontier Model Forum, un’organizzazione deve soddisfare i seguenti criteri:
- Sviluppare e implementare modelli di frontiera (come definito dal Forum).
- Dimostrare un forte impegno per la sicurezza dei modelli di frontiera, incluso attraverso approcci tecnici e istituzionali.
- Sono disposti a contribuire agli sforzi del Frontier Model Forum, incluso partecipare a iniziative comuni e sostenere lo sviluppo e il funzionamento dell’iniziativa.
Questo avviene mentre crescono le richieste di regolamentazione dell’AI da entrambe le parti dell’Atlantico negli Stati Uniti e in Europa. La Cina sta già implementando nuovi quadri normativi per l’AI generativa, con Corea del Sud e Giappone che seguono i loro piani.
Pochi giorni fa, leader del settore hanno parlato alla Casa Bianca su questo argomento. Ciò dimostra che c’è un interesse crescente nel garantire che lo sviluppo dell’AI avvenga con il minimo danno. Lo scorso marzo, la Camera di Commercio degli Stati Uniti, il più grande gruppo commerciale del paese, ha chiesto che i responsabili politici si impegnino nella regolamentazione dell’AI.
Questo è avvenuto nel momento in cui Goldman Sachs ha pubblicato rapporti che stimavano che l’AI avrebbe influenzato centinaia di milioni di posti di lavoro, mentre aumentava il PIL complessivo dell’economia globale. Tutto questo avviene anche mentre le principali aziende tecnologiche si sono impegnate a maggiori misure di sicurezza per l’AI, come il watermarking.
Nota dell’Editore: L’AI responsabile sta diventando un argomento critico nello sviluppo dell’AI e se vuoi rimanere in prima linea sulle ultime novità, devi ascoltare i leader del settore che guidano l’azione. Puoi farlo presso la ODSC West 2023 Machine Learning Safety & Security Track. Prenota il tuo posto e registrati oggi stesso.