Le persone pagate per addestrare l’IA stanno esternalizzando il loro lavoro … all’IA

People paid to train AI are outsourcing their work...to AI.

Lo studio evidenzia la necessità di nuovi modi per verificare se i dati sono stati prodotti da esseri umani o da AI. ¶ Credit: Stephanie Arnett/MIT Technology Review/Getty

Una significativa proporzione di persone pagate per addestrare i modelli AI potrebbe essere essa stessa outsourcing del lavoro ad AI, ha scoperto uno studio.

Serve una quantità incredibile di dati per addestrare i sistemi AI a svolgere specifici compiti in modo accurato e affidabile. Molte aziende pagano lavoratori temporanei su piattaforme come Mechanical Turk per completare compiti che sono tipicamente difficili da automatizzare, come risolvere CAPTCHA, etichettare dati e annotare testo. Questi dati vengono quindi inseriti nei modelli AI per addestrarli. I lavoratori sono mal pagati e spesso si aspetta che completino molti compiti molto rapidamente.

I grandi modelli di lingua sono pieni di vulnerabilità di sicurezza, ma vengono incorporati in prodotti tecnologici su vasta scala.

Non sorprende che alcuni di loro si rivolgano a strumenti come ChatGPT per massimizzare il loro potenziale di guadagno. Ma quanti? Per scoprirlo, un team di ricercatori dell’Istituto Federale di Tecnologia della Svizzera (EPFL) ha assunto 44 persone sulla piattaforma di lavoro temporaneo Amazon Mechanical Turk per riassumere 16 estratti da articoli di ricerca medica. Poi hanno analizzato le loro risposte utilizzando un modello AI che avevano addestrato loro stessi che cerca segnali caratteristici dell’output di ChatGPT, come la mancanza di varietà nella scelta delle parole. Hanno anche estratto le battute d’arresto dei lavoratori nel tentativo di capire se avessero copiato e incollato le loro risposte, un indicatore che avevano generato le loro risposte altrove.

Dal MIT Technology Review Visualizza l’articolo completo