Newsletter Etica e Società #5 Hugging Face va a Washington e altri pensieri estivi del 2023
Newsletter Etica e Società #5 Hugging Face a Washington e altri pensieri estivi del 2023
Una delle cose più importanti da sapere sull’etica nell’IA è che ha a che fare con i valori. L’etica non ti dice cosa è giusto o sbagliato, fornisce un vocabolario di valori – trasparenza, sicurezza, giustizia – e dei framework per stabilire le priorità tra di essi. Quest’estate, siamo riusciti a portare la nostra comprensione dei valori nell’IA ai legislatori nell’UE, nel Regno Unito e negli Stati Uniti, per contribuire a plasmare il futuro della regolamentazione dell’IA. Qui è dove l’etica brilla: aiutando a tracciare una strada avanti quando le leggi non sono ancora in vigore.
In linea con i valori fondamentali di Hugging Face di apertura e responsabilità, condividiamo qui una raccolta di ciò che abbiamo detto e fatto. Ciò include le testimonianze del nostro CEO Clem davanti al Congresso degli Stati Uniti e le dichiarazioni al Forum Insight sull’IA del Senato degli Stati Uniti; il nostro contributo sulla Legge sull’IA dell’UE; i nostri commenti al NTIA sull’accountability dell’IA; e i commenti della nostra Chief Ethics Scientist Meg al Caucus Democratico. In molte di queste discussioni, le domande riguardavano perché l’apertura nell’IA possa essere vantaggiosa e condividiamo qui una raccolta delle nostre risposte a questa domanda qui.
In linea con il nostro valore fondamentale di democratizzazione, abbiamo anche dedicato molto tempo a parlare pubblicamente e abbiamo avuto il privilegio di parlare con giornalisti per aiutarli a comprendere cosa sta accadendo nel mondo dell’IA in questo momento. Ciò include:
- Commenti di Sasha sull’uso dell’energia e le emissioni di carbonio dell’IA (The Atlantic, The Guardian, (due volte), New Scientist, The Weather Network, The Wall Street Journal, (due volte)), oltre a scrivere una parte di un opinione sul Wall Street Journal sul tema; riflessioni sul rischio dell’apocalisse dell’IA (Bloomberg, The Times, Futurism, Sky News); dettagli sui preconcetti nell’IA generativa (Bloomberg, NBC, Vox); affrontare come i lavoratori emarginati creano i dati per l’IA (The Globe and Mail, The Atlantic); evidenziare gli effetti del sessismo nell’IA (VICE); e fornire informazioni su MIT Technology Review su rilevamento di testo con AI, rilascio di modelli open, e trasparenza dell’IA.
- Commenti di Nathan sullo stato dell’arte dei modelli di linguaggio e dei rilasci open (WIRED, VentureBeat, Business Insider, Fortune).
- Commenti di Meg sull’IA e la disinformazione (CNN, al Jazeera, the New York Times); la necessità di un trattamento equo del lavoro degli artisti nell’IA (Washington Post); sviluppi nell’IA generativa e la loro relazione con il bene comune (Washington Post, VentureBeat); come i giornalisti possano contribuire a plasmare l’evoluzione dell’IA con la loro segnalazione (CJR); nonché spiegare il concetto statistico fondamentale della perplessità nell’IA (Ars Technica); ed evidenziare i modelli di sessismo (Fast Company).
- Commenti di Irene sulla comprensione del <strong{paesaggio dell'ia (MIT Technology Review, Barron’s).
- Commenti di Yacine sull’open source e legislazione sull’IA (VentureBeat
Alcuni dei nostri discorsi rilasciati questa estate includono la presentazione TED di Giada su “è possibile l’IA generativa ‘etica’?” (i sottotitoli automatici in inglese sono fantastici!); le presentazioni di Yacine sull’etica nella tecnologia presso il Centro Markkula per l’Etica Applicata e sulla “Trasparenza Responsabile” presso il Workshop sui Modelli Fondamentali Responsabili e Aperti; la conversazione di Katie sull’IA generativa in campo medico; e la presentazione di Meg per la Settimana dei Dati di Londra su “Costruire un’IA migliore e aperta”.
- 🧨 Accelerazione della diffusione stabile XL dell’inferenza con JAX su Cloud TPU v5e
- Implementare la AI Comic Factory utilizzando l’API di inferenza
- Accelerare oltre 130.000 modelli di Hugging Face con ONNX Runtime
Naturalmente, abbiamo anche fatto progressi nel nostro lavoro regolare (il nostro “lavoro lavoro”). Il valore fondamentale dell’accessibilità è emerso nel nostro lavoro, poiché ci siamo concentrati su come plasmare l’IA in modo informato dalla società e dai valori umani, in modo che tutti si sentano i benvenuti. Questo include un nuovo corso sull’audio AI di Maria e altri; una risorsa di Katie sui modelli clinici ad accesso aperto; un tutorial di Nazneen e altri sull’IA generativa responsabile; i nostri documenti FAccT su “Il gradiente della release dell’IA generativa” e “L’articolazione dei tipi di documentazione etica, strumenti legali e tecnici nell’apprendimento automatico”; nonché i workshop su “Mappare la superficie del rischio dell’IA testo-immagine con un approccio partecipativo e interdisciplinare” e “Valutare gli impatti dei sistemi generativi di IA su diverse modalità e sulla società”.
Abbiamo inoltre progredito nei nostri obiettivi di equità e giustizia con i test di bias e danno, recentemente applicati al nuovo modello multimodale IDEFICS di Hugging Face. Abbiamo lavorato su come operazionalizzare la trasparenza in modo responsabile, incluso l’aggiornamento della nostra politica dei contenuti (guidata da Giada). Abbiamo promosso il supporto alla diversità linguistica nell’Hub attraverso l’utilizzo del machine learning per migliorare i metadati (guidato da Daniel) e il supporto alla rigore nell’IA aggiungendo statistiche descrittive ai dataset (guidato da Polina) per favorire una migliore comprensione di ciò che l’IA apprende e come può essere valutata.
Tramite le nostre esperienze di quest’ultima stagione, forniamo ora una raccolta di molte delle risorse su Hugging Face che sono particolarmente utili nel dibattito attuale sull’etica dell’IA, disponibili qui: https://huggingface.co/society-ethics.
Infine, siamo stati sorpresi e felici di ricevere riconoscimenti pubblici per molti dei collaboratori regolari di società ed etica, tra cui entrambi Irene e Sasha selezionati in MIT’s 35 Innovators under 35 (Hugging Face costituisce 1/4 di AI 35 under 35!); Meg inclusa nelle liste degli innovatori AI influenti (WIRED, Fortune); e la selezione di Meg e Clem nella lista TIME’s 100 under 100 in AI. Siamo anche molto tristi nel dire addio al nostro collega Nathan, che ha svolto un ruolo fondamentale nel nostro lavoro di connessione tra etica e apprendimento per rinforzo per i sistemi di IA. Come regalo di commiato, ha fornito ulteriori dettagli sulle sfide dell’operazionalizzazione di un’IA etica in RLHF.
Grazie per la lettura!
— Meg, a nome dei collaboratori regolari di Etica e Società su Hugging Face