Svelando gli effetti dannosi dell’Intelligenza Artificiale sulla comunità transessuale.

Unveiling the harmful effects of Artificial Intelligence on the transgender community.

I pericoli del software di riconoscimento del genere, modelli medici inadeguati e l’amplificazione di contenuti transfobici

Foto di Delia Giandeini su Unsplash

Le discussioni sui rischi dell’AI spesso gravitano attorno ai pericoli ipotetici dell’intelligenza artificiale generale (AGI) e scenari apocalittici. I robot non prenderanno il controllo del mondo. Tuttavia, il livello attuale di AI presenta rischi tangibili. In particolare per la comunità trans e di genere non conforme che è già stata colpita da questa tecnologia.

Illustreremo i pericoli per questa comunità con un focus su:

  • Riconoscimento automatico del genere
  • Limitazioni dei modelli medici
  • L’amplificazione di contenuti transfobici sui social media

Mentre la comunità trans sente le conseguenze immediate, questi pericoli ci riguardano tutti. Diffondono l’odio e limitano la ricchezza della diversità, vincolando la nostra capacità collettiva di esprimerci appieno. Dobbiamo capire come il nostro ruolo come professionisti della tecnologia possa supportare le persone trans e creare una società più forte.

Siamo a un punto in cui possiamo implementare l’AI su larga scala, solo perché abbiamo una quantità significativa di dati e potenza di calcolo. La preoccupazione è che l’AI non stia affrontando le sfide etiche.

— Alex Hanna

Filtri per il viso

Inizieremo con un esempio che, superficialmente, potrebbe non sembrare serio. Se sei sui social media, sai cos’è un filtro per il viso. Usano l’apprendimento automatico per deformare il tuo volto, farti sembrare vecchio o persino trasformare il tuo cane in un personaggio Disney. La maggior parte concorderà sul fatto che si tratta solo di un divertimento innocuo. Quando si parla di genere, le cose possono essere più complesse. Tuttavia, le conseguenze negative non dovrebbero essere esagerate.

Sono solo un alleato e non posso parlare per le persone trans. Sembra che anche tra la comunità trans, le conseguenze dei filtri che cambiano il genere siano dibattute. Possono permetterti di esplorare la tua identità di genere e di espressione. Tuttavia, possono anche restringere gli stereotipi di genere ed escludere le persone non binarie. Alcuni li hanno persino usati come strumento per prendere in giro il processo di transizione.

Esplorare il genere e i diversi generi rispetto a quello che ti è stato assegnato è una cosa positiva, lo incoraggio. Puoi imparare cose nuove su te stesso che ti sorprendono e puoi trovare te stesso più gentile con le persone trans.

— Charlie Knight

Quando si discute di questo tipo di tecnologie, dovrebbe essere fatta una distinzione tra le applicazioni che ti permettono di scegliere un genere e quelle che cercano di predirlo. Ad esempio, guarda il primo video nella compilazione del filtro Pixar. L’algoritmo ha difficoltà quando gli utenti non hanno caratteristiche maschili o femminili tradizionali.

Ciò rivela il problema di questi tipi di applicazioni: la tecnologia sottostante si basa sull’assunzione che si possa prevedere l’identità di genere di qualcuno. Questo è una pseudoscienza. Portare questa assunzione ad altre applicazioni può avere conseguenze significative.

Riconoscimento automatico del genere (AGR)

AGR o software di riconoscimento del genere è un ramo dell’apprendimento automatico che cerca di prevedere il genere di una persona. Ciò avviene analizzando le caratteristiche del viso, la forma del corpo, l’abbigliamento, i modelli vocali o comportamentali. Tuttavia, il genere è complesso e non può essere completamente catturato da questi aspetti. Questo è particolarmente vero quando si tratta di persone trans.

Uno studio su 4 sistemi AGR, visto in Figura 1, ha mostrato che essi sbagliano il genere delle donne trans nel 12,7% e degli uomini trans nel 29,5% delle volte in media. Ciò è paragonabile al 1,7% e al 2,4% per le donne e gli uomini cis [1]. Questi sistemi ignorano completamente altri gruppi di genere.

Figura 1: accuratezza dei sistemi AGR (fonte: M. K. Scheuerman, et. al.)

È irrispettoso usare il genere sbagliato nei confronti delle persone trans. Può anche avere seri effetti sulla salute mentale. Essere costantemente identificati con il genere con cui non ci si identifica può essere sia esauriente che demoralizzante. Ora immagina un mondo in cui questo è automatizzato e integrato nei nostri sistemi quotidiani.

Non devi pensarci troppo. Questi sistemi sono già stati implementati:

  • Un’azienda ha automatizzato un cartellone pubblicitario per pubblicizzare una pizza per uomini e un’insalata per donne
  • L’operatore di trasporto pubblico di Berlino ha offerto uno sconto del 21% alle viaggiatrici
  • Giggle, l’app di social networking “solo per donne” che ha respinto le donne trans
  • I conducenti Uber trans hanno avuto i loro account sospesi da un sistema di sicurezza di riconoscimento facciale

I danni causati da questi tipi di sistemi sono ben noti, tanto che l’UE è stata invitata a vietarli.

Modelli sanitari che dipendono dal genere

L’Agr prevede l’apprendimento automatico in cui il genere è la variabile target. Si presentano anche problemi quando includiamo il genere come caratteristica del modello. Più precisamente, quando non distinguamo tra il sesso (genere assegnato alla nascita) e il genere (ruoli socialmente costruiti). Questo problema è diffuso nei modelli sanitari.

In campo medico, sesso e genere spesso sono confusi. Tanto che è stato proposto il termine medicina basata sul sesso-genere [2]. In realtà, pochi dati sono stati raccolti che considerano le persone trans e altri gruppi di genere come una categoria. Il risultato sono modelli addestrati utilizzando una singola caratteristica binaria – maschio/femmina, con il sesso assegnato alla nascita come proxy per entrambi il sesso e il genere [3].

False supposizioni che il sesso e il genere siano binari, statici e concordanti sono profondamente radicate nel sistema medico.

— Kendra Albert, Maggie Delano

Il problema è che esistono molte diagnosi e trattamenti in cui l’interazione tra sesso e genere è importante [4]. Questo è vero per la prevenzione dell’HIV, la salute riproduttiva, la terapia sostitutiva degli ormoni e la salute mentale. Unendo sesso e genere in una sola variabile, stiamo ignorando le persone trans nei nostri sistemi medici. Il risultato è una cura peggiore rispetto ai loro omologhi cisgender.

L’amplificazione dei contenuti transfobici sui social media

Fino ad ora, ci siamo concentrati su impatti più diretti. Attraverso l’incorporazione delle aspettative di genere e le prestazioni inferiori del modello, l’AI può portare a esperienze negative per le persone trans. L’AI può anche avere un impatto meno diretto. Cioè, influenzando le opinioni degli altri sulle persone trans.

Gli algoritmi di raccomandazione dei social media hanno un solo compito: mantenerti sulla piattaforma. Purtroppo, l’ira, in particolare verso un gruppo a cui non si appartiene, è efficace nel guidare l’interazione [5]. Ci sono anche preoccupazioni che gli algoritmi possano far rispettare le credenze preesistenti [6]. Cioè, raccomandando solo contenuti simili a quelli con cui ti sei impegnato in passato.

Il genere è centrale alle norme e alle aspettative della società moderna. L’esistenza di persone trans può mettere in discussione questi aspetti. Per alcuni, questo è accolto con paura, rabbia e una mancanza di volontà di accettare i fatti scientifici. Queste sono condizioni favorevoli per aumentare l’interazione e creare camere di eco transfobiche.

Abbiamo visto questo su Facebook. Qui gli utenti hanno una comprensione distorta e non veritiera delle questioni che interessano le persone trans. Come si può vedere nella Figura 2, i post sulle questioni trans sulle pagine di destra hanno guadagnato quasi il doppio di interazioni. La maggior parte di questi sono post fatti da siti web anti-trans.

Figura 2: Interazioni di Facebook su tutti i post relativi alle persone trans in base all'ideologia della pagina da ottobre 2020 a settembre 2021 (fonte immagine: autore) (fonte: media matters)

Facebook non è l’unico problema. Dopo aver interagito con contenuti transfobici, TikTok ti porta in un tunnel oscuro di estremismo, odio e violenza. La mia esperienza di essere consigliato contenuti transfobici su YouTube shorts è stata quella che mi ha motivato a scrivere questo articolo, un’esperienza condivisa da altri.

I contenuti su queste piattaforme cercano di spingere la falsa narrazione che essere trans sia un’ideologia o una malattia mentale. Non lo è. Cerca anche di deviare e banalizzare il dibattito sui diritti umani fondamentali e sui temi dello sport, dei bagni e dei pronomi. Il più insidioso cerca di riformulare la ricerca dell’uguaglianza come un attacco ai bambini.

La comunità trans non rappresenta alcun rischio per i bambini. Tuttavia, questi contenuti rappresentano un rischio significativo per loro. Nel 2023, sono state approvate negli Stati Uniti 79 leggi anti-trans. Si crede che i social media abbiano contribuito a questi cambiamenti politici. I contenuti transfobici comportano anche cambiamenti sociali negativi.

L’82% degli individui transgender ha considerato il suicidio e il 40% ha tentato il suicidio. Il fattore più significativo che contribuisce a questa cifra sono le brevi e comuni offese quotidiane [7]. Lo stesso comportamento che normalizza e promuove i contenuti anti-trans.

Le microaggressioni interpersonali hanno dato un contributo unico e statisticamente significativo ai tentativi di suicidio a vita

— Ashley Austin, et. al.

In base a queste conseguenze, i social media sono moralmente obbligati a limitare questi contenuti. Almeno, etichettiamoli come falsi e non scientifici. Dovremmo tutti respingere la transfobia. Come lavoratori della tecnologia, dovremmo anche usare le nostre posizioni uniche di influenza. Abbiamo il potere di contrastare queste tendenze e di plasmare i sistemi stessi che danneggiano le persone trans.

Potremmo iniziare educandoci su cosa significhi essere trans. Possiamo spingere per dati di formazione inclusivi e squadre più diverse. Dovremmo anche sostenere la regolamentazione mirata ad aumentare la trasparenza, la spiegabilità e la supervisione umana dei sistemi AI. Nel farlo, non dovremmo permettere che ci distraiamo da scenari apocalittici ipotetici, ma concentrarci sui rischi immediati dell’AI.

Tutti i fondi del partenariato Nisoo di questo articolo saranno donati a TGEU. Guarda i video qui sotto se vuoi sapere cosa significa essere transgender o come essere un miglior alleato. Buon Pride Month 🙂

Cosa significa essere transgender?

La neuroscienza dell’essere transgender

Trans 101 – Essere un alleato trans

Puoi trovarmi su Mastodon | Twitter | YouTube | Newsletter – iscriviti per l’accesso GRATUITO a un corso Python SHAP

Come membro di Nisoo, una parte della tua quota di iscrizione va ai writer che leggi e hai accesso completo a ogni storia…

conorosullyds.medium.com

Riferimenti

[1] Scheuerman, M.K., Paul, J.M. and Brubaker, J.R., 2019. Come i computer vedono il genere: Una valutazione della classificazione di genere nei servizi commerciali di analisi facciale. Atti dell’ACM sull’interazione uomo-computer, 3 (CSCW), pp.1-33 https://docs.wixstatic.com/ugd/eb2cd9_963fbde2284f4a72b33ea2ad295fa6d3.pdf

[2] Campesi, I., Montella, A., Seghieri, G. and Franconi, F., 2021. La cura della persona richiede un approccio al sesso e al genere. Journal of Clinical Medicine, 10 (20), p.4770. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8541070/

[3] Chen, I.Y., Pierson, E., Rose, S., Joshi, S., Ferryman, K. and Ghassemi, M., 2021. Apprendimento automatico etico in campo sanitario. Annual review of biomedical data science, 4, pp.123-144. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8362902/

[4] Albert, K. and Delano, M., 2022. Problemi sessuali: slittamento del sesso/genere, confusione sessuale e ossessione sessuale nell’apprendimento automatico che utilizza i record elettronici della salute. Patterns, 3 (8), p.100534. https://www.sciencedirect.com/science/article/pii/S2666389922001313

[5] Rathje, S., Van Bavel, J.J. and Van Der Linden, S., 2021. L’ostilità verso il gruppo esterno guida l’engagement sui social media. Proceedings of the National Academy of Sciences, 118 (26), p.e2024292118. https://www.pnas.org/doi/abs/10.1073/pnas.2024292118

[6] Jiang, R., Chiappa, S., Lattimore, T., György, A. e Kohli, P., gennaio 2019. Cicli di feedback degeneri nei sistemi di raccomandazione. In Atti della Conferenza AAAI/ACM sull’Etica e la Società dell’Intelligenza Artificiale del 2019 (pp. 383-390). https://arxiv.org/pdf/1902.10730.pdf

[7] Austin, A., Craig, S.L., D’Souza, S. e McInroy, L.B., 2022. Suicidio tra i giovani transgender: chiarire il ruolo dei fattori di rischio interpersonali. Journal of interpersonal violence, 37 (5-6), pp. NP2696-NP2718. https://pubmed.ncbi.nlm.nih.gov/32345113/