Politica di AI @🤗 Risposta alla richiesta di commenti sulla responsabilità dell’AI dell’NTIA degli Stati Uniti.

Politica di AI @🤗 in risposta alla richiesta dell'NTIA degli Stati Uniti sulla responsabilità dell'AI.

Il 12 giugno, Hugging Face ha presentato una risposta alla richiesta di informazioni del Dipartimento di Commercio degli Stati Uniti NTIA sulla politica di responsabilità dell’IA. Nella nostra risposta, abbiamo sottolineato il ruolo della documentazione e delle norme di trasparenza nel guidare i processi di responsabilità dell’IA, nonché la necessità di fare affidamento sull’intera gamma di competenze, prospettive e competenze dei molti interessati alla tecnologia per affrontare le spaventose prospettive di una tecnologia il cui crescita senza precedenti pone più domande di quante un singolo ente possa rispondere.

La missione di Hugging Face è quella di “democratizzare il buon machine learning”. Nel contesto del presente documento, intendiamo il termine “democratizzazione” nel senso di rendere i sistemi di machine learning non solo più facili da sviluppare e implementare, ma anche più facili da capire, interrogare e criticare per i molti interessati. A tal fine, abbiamo lavorato per promuovere la trasparenza e l’inclusione attraverso i nostri sforzi educativi, il focus sulla documentazione, le linee guida della comunità e l’approccio all’apertura responsabile, nonché lo sviluppo di strumenti senza e con codice ridotto per consentire alle persone con tutti i livelli di competenze tecniche di analizzare set di dati e modelli di machine learning. Crediamo che questo aiuti tutti coloro interessati a comprendere meglio i limiti dei sistemi di machine learning e come possano essere utilizzati in modo sicuro per servire al meglio gli utenti e coloro che sono interessati da questi sistemi. Questi approcci hanno già dimostrato la loro utilità nel promuovere la responsabilità, specialmente nei più ampi sforzi di ricerca multidisciplinare che abbiamo contribuito ad organizzare, tra cui BigScience (vedi la nostra serie di blog sulle sfide sociali del progetto) e il più recente progetto BigCode (la cui governance è descritta in dettaglio qui).

Concretamente, formuliamo le seguenti raccomandazioni per i meccanismi di responsabilità:

  • I meccanismi di responsabilità dovrebbero concentrarsi su tutte le fasi del processo di sviluppo di machine learning. L’impatto sociale di un sistema completo abilitato dall’IA dipende dalle scelte fatte in ogni fase dello sviluppo in modi che è impossibile prevedere completamente, e le valutazioni che si concentrano solo sulla fase di implementazione rischiano di incentivare la conformità superficiale che non affronta i problemi più profondi fino a quando non hanno causato danni significativi.
  • I meccanismi di responsabilità dovrebbero combinare requisiti interni con accesso esterno e trasparenza. I requisiti interni, come le buone pratiche di documentazione, plasmano uno sviluppo più responsabile e forniscono chiarezza sulla responsabilità degli sviluppatori nel consentire una tecnologia più sicura e affidabile. L’accesso esterno ai processi interni e alle scelte di sviluppo è ancora necessario per verificare le dichiarazioni e la documentazione e per consentire ai molti interessati alla tecnologia che risiedono al di fuori della catena di sviluppo di dare un contributo significativo alla sua evoluzione e promuovere i propri interessi.
  • I meccanismi di responsabilità dovrebbero invitare la partecipazione del più ampio insieme possibile di contributori, tra cui sviluppatori che lavorano direttamente sulla tecnologia, comunità di ricerca multidisciplinare, organizzazioni di difesa, responsabili delle politiche e giornalisti. Comprendere l’impatto trasformativo della rapida crescita dell’adozione della tecnologia di machine learning è un compito che va oltre la capacità di un singolo ente e richiederà di sfruttare l’intera gamma di competenze ed esperienze della nostra ampia comunità di ricerca e dei suoi utenti diretti e delle popolazioni interessate.

Riteniamo che dare priorità alla trasparenza sia nei prodotti di machine learning stessi che nei risultati delle loro valutazioni sia fondamentale per raggiungere questi obiettivi. Puoi trovare la nostra risposta più dettagliata che affronta questi punti qui.