Ethics and Society Newsletter #3 Apertura Etica da Hugging Face

'Ethics and Society Newsletter #3 by Hugging Face'

Missione: Machine Learning Aperto e Buono

Nella nostra missione di democratizzare il buon machine learning (ML), esaminiamo come il supporto al lavoro della comunità ML permetta anche di esaminare e prevenire possibili danni. Lo sviluppo aperto e la scienza decentralizzano il potere in modo che molte persone possano lavorare collettivamente su intelligenza artificiale che rispecchia le loro esigenze e valori. Sebbene l’apertura consenta a prospettive più ampie di contribuire alla ricerca e all’IA in generale, si confronta con la tensione di un controllo dei rischi inferiore.

La moderazione degli artefatti ML presenta sfide uniche a causa della natura dinamica e in rapida evoluzione di questi sistemi. Infatti, man mano che i modelli di ML diventano più avanzati e capaci di produrre contenuti sempre più diversi, cresce il potenziale per output dannosi o non voluti, rendendo necessaria la creazione di strategie di moderazione ed valutazione robuste. Inoltre, la complessità dei modelli ML e le enormi quantità di dati che elaborano rendono ancora più difficile identificare ed affrontare possibili pregiudizi e questioni etiche.

Come ospiti, riconosciamo la responsabilità che deriva dall’amplificare potenzialmente il danno per i nostri utenti e per il mondo in generale. Spesso questi danni colpiscono in modo disuguale le comunità minoritarie in modo dipendente dal contesto. Abbiamo adottato un approccio di analisi delle tensioni in gioco per ogni contesto, aperto alla discussione in tutta l’azienda e nella comunità di Hugging Face. Mentre molti modelli possono amplificare il danno, in particolare il contenuto discriminatorio, stiamo prendendo una serie di misure per identificare i modelli ad alto rischio e decidere quale azione intraprendere. È importante che diverse prospettive attive partecipino per comprendere, misurare e mitigare i danni potenziali che colpiscono diversi gruppi di persone.

Stiamo creando strumenti e salvaguardie oltre a migliorare le nostre pratiche di documentazione per garantire che la scienza open source abiliti gli individui e continui a ridurre al minimo i danni potenziali.

Categorie Etiche

Il primo aspetto principale del nostro lavoro per promuovere il buon ML aperto consiste nel promuovere gli strumenti e gli esempi positivi di sviluppo ML che danno priorità ai valori e alla considerazione dei loro stakeholder. Ciò aiuta gli utenti a compiere passi concreti per affrontare questioni irrisolte e presentare alternative plausibili alle pratiche dannose di fatto nello sviluppo di ML.

Per aiutare i nostri utenti a scoprire e interagire con il lavoro ML correlato all’etica, abbiamo compilato un insieme di tag. Queste 6 categorie di alto livello si basano sulla nostra analisi degli Spazi a cui i membri della comunità hanno contribuito. Sono progettate per offrirti un modo privo di gergo per pensare alla tecnologia etica:

  • Il lavoro rigoroso presta particolare attenzione allo sviluppo secondo le migliori pratiche. Nel ML, questo può significare esaminare casi di fallimento (compresi audit di bias e equità), proteggere la privacy attraverso misure di sicurezza e assicurarsi che gli utenti potenziali (tecnici e non tecnici) siano informati sulle limitazioni del progetto.
  • Il lavoro consenziente supporta l’autodeterminazione delle persone che utilizzano e sono influenzate da queste tecnologie.
  • Il lavoro socialmente consapevole ci mostra come la tecnologia può sostenere gli sforzi sociali, ambientali e scientifici.
  • Il lavoro sostenibile evidenzia ed esplora tecniche per rendere l’apprendimento automatico ecologicamente sostenibile.
  • Il lavoro inclusivo amplia il campo di chi costruisce e beneficia nel mondo dell’apprendimento automatico.
  • Il lavoro curioso mette in luce le disuguaglianze e le strutture di potere che sfidano la comunità a ripensare il suo rapporto con la tecnologia.

Leggi di più su https://huggingface.co/ethics

Cerca questi termini perché useremo questi tag e li aggiorneremo in base ai contributi della comunità in alcuni nuovi progetti su Hub!

Salvaguardie

Adottare una visione “tutto o niente” delle release aperte ignora la grande varietà di contesti che determinano gli impatti positivi o negativi di un artefatto di ML. Avere più leve di controllo su come i sistemi di ML vengono condivisi e riutilizzati sostiene lo sviluppo collaborativo e l’analisi con un minor rischio di promuovere utilizzi dannosi o abusi, consentendo una maggiore apertura e partecipazione all’innovazione per benefici condivisi.

Interagiamo direttamente con i contributori e abbiamo affrontato questioni urgenti. Per portare tutto ciò al livello successivo, stiamo costruendo processi basati sulla comunità. Questo approccio dà potere sia ai contributori di Hugging Face che a coloro che sono influenzati dai contributi, per informare sulle limitazioni, la condivisione e i meccanismi aggiuntivi necessari per modelli e dati resi disponibili sulla nostra piattaforma. I tre principali aspetti a cui prestiamo attenzione sono: l’origine dell’artefatto, come l’artefatto viene gestito dai suoi sviluppatori e come l’artefatto è stato utilizzato. A tal proposito:

  • abbiamo lanciato una funzione di segnalazione per la nostra comunità per determinare se gli artefatti di ML o i contenuti della comunità (modello, dataset, spazio o discussione) violano le nostre linee guida sui contenuti,
  • monitoriamo i nostri forum di discussione della comunità per garantire che gli utenti di Hub rispettino il codice di condotta,
  • documentiamo in modo robusto i nostri modelli più scaricati con schede di modello che dettagliano impatti sociali, pregiudizi e casi d’uso intenzionali e fuori dal campo di applicazione,
  • creiamo tag per guidare il pubblico, come il tag “Non per tutti gli spettatori” che può essere aggiunto ai metadati della scheda del repository per evitare contenuti violenti o sessuali non richiesti,
  • promuoviamo l’uso di licenze Open Responsible AI (RAIL) per i modelli, ad esempio con LLM (BLOOM, BigCode),
  • conduciamo ricerche che analizzano quali modelli e dataset hanno il più alto potenziale o la cronologia di utilizzo improprio e di uso malintenzionato.

Come utilizzare la funzione di segnalazione: Fare clic sull’icona della bandiera su qualsiasi Modello, Dataset, Spazio o Discussione:

Quando si è connessi, è possibile fare clic sul pulsante dei “tre puntini” per visualizzare la possibilità di segnalare (o flaggare) un repository. Questo aprirà una conversazione nella scheda della comunità del repository.

Spiega perché hai segnalato questo elemento:

Aggiungi quanto più contesto rilevante possibile nella tua segnalazione! Questo renderà molto più facile per il proprietario del repository e il team di HF iniziare ad agire.

Nel privilegiare la scienza aperta, esaminiamo i possibili danni caso per caso e offriamo un’opportunità di apprendimento collaborativo e responsabilità condivisa. Quando gli utenti segnalano un sistema, gli sviluppatori possono rispondere direttamente e in modo trasparente alle preoccupazioni. In questo spirito, chiediamo che i proprietari del repository facciano sforzi ragionevoli per affrontare le segnalazioni, soprattutto quando i segnalatori si prendono il tempo per fornire una descrizione del problema. Sottolineiamo anche che le segnalazioni e le discussioni sono soggette alle stesse norme di comunicazione del resto della piattaforma. I moderatori possono disimpegnarsi o chiudere le discussioni nel caso si manifestino comportamenti odiose e/o abusivi (vedi codice di condotta).

Se una specifica modello viene segnalato come ad alto rischio dalla nostra comunità, consideriamo:

  • Ridurre la visibilità dell’artefatto di ML nell’Hub nella scheda delle tendenze e nei feed,
  • Richiedere che la funzione di gating sia abilitata per gestire l’accesso agli artefatti di ML (vedi documentazione per modelli e dataset),
  • Richiedere che i modelli siano resi privati,
  • Disabilitare l’accesso.

Come aggiungere il tag “Non per tutti i pubblici”:

Modifica la scheda del modello/dati → aggiungi not-for-all-audiences nella sezione dei tag → apri la PR e attendi che gli autori la uniscano. Una volta unita, il tag seguente verrà visualizzato sul repository:

Qualsiasi repository contrassegnato come not-for-all-audiences visualizzerà il seguente popup quando visitato:

Cliccando su “Visualizza contenuto” sarà possibile visualizzare il repository come al solito. Se si desidera sempre visualizzare repository contrassegnati come not-for-all-audiences senza il popup, questa impostazione può essere modificata nelle Preferenze di contenuto dell’utente

La scienza aperta richiede misure di salvaguardia e uno dei nostri obiettivi è creare un ambiente informato da compromessi con valori diversi. Ospitare e fornire accesso a modelli, oltre a coltivare comunità e discussioni, permette a gruppi diversificati di valutare le implicazioni sociali e guidare ciò che è un buon apprendimento automatico.

Stai lavorando su misure di salvaguardia? Condividile su Hugging Face Hub!

La parte più importante di Hugging Face è la nostra comunità. Se sei un ricercatore che sta lavorando per rendere l’apprendimento automatico più sicuro da utilizzare, soprattutto per la scienza aperta, vogliamo sostenere e mettere in mostra il tuo lavoro!

Ecco alcune dimostrazioni e strumenti recenti di ricercatori della comunità di Hugging Face:

  • Un Watermark per LLMs di John Kirchenbauer, Jonas Geiping, Yuxin Wen, Jonathan Katz, Ian Miers, Tom Goldstein (articolo)
  • Generare il Model Cards Tool del team di Hugging Face
  • Photoguard per proteggere le immagini dalla manipolazione di Ram Ananth

Grazie per la lettura! 🤗

~ Irene, Nima, Giada, Yacine ed Elizabeth, a nome dei regolari di Etica e Società

Se si desidera citare questo post del blog, utilizzare il seguente (in ordine discendente di contributo):

@misc{hf_ethics_soc_blog_3,
  author    = {Irene Solaiman e
               Giada Pistilli e
               Nima Boscarino e
               Yacine Jernite e
               Elizabeth Allendorf e
               Margaret Mitchell e
               Carlos Muñoz Ferrandis e
               Nathan Lambert e
               Alexandra Sasha Luccioni
               },
  title     = {Hugging Face Ethics and Society Newsletter 3: Ethical Openness at Hugging Face},
  booktitle = {Hugging Face Blog},
  year      = {2023},
  url       = {https://doi.org/10.57967/hf/0487},
  doi       = {10.57967/hf/0487}
}