I Chatbot possono allucinare più spesso di quanto molti credano

I Chatbot possono fare più hallucinazioni di quanto molti credano

Quando la start-up di San Francisco OpenAI ha presentato il suo chatbot online ChatGPT alla fine dell’anno scorso, milioni di persone sono rimaste estasiante per il modo umano con cui rispondeva alle domande, scriveva poesie e discuteva su quasi ogni argomento. Ma la maggior parte delle persone ha impiegato del tempo a rendersi conto che questo nuovo tipo di chatbot spesso inventa le cose.

Quando Google ha introdotto un chatbot simile alcune settimane dopo, ha sparato sciocchezze sul telescopio James Webb. Il giorno seguente, il nuovo chatbot di Bing di Microsoft ha fornito tutte sorta di informazioni fasulle su Gap, la vita notturna messicana e la cantante Billie Eilish. Poi, a marzo, ChatGPT ha citato una mezza dozzina di casi giudiziari falsi mentre scriveva un memoriale legale di 10 pagine che un avvocato ha presentato a un giudice federale a Manhattan.

Ora una nuova start-up chiamata Vectara, fondata da ex dipendenti di Google, sta cercando di capire con quale frequenza i chatbot si allontanano dalla verità. La ricerca della società stima che anche in situazioni in cui si cerca di prevenire ciò, i chatbot inventano informazioni almeno il 3% delle volte – e fino al 27% delle volte.

Dal The New York Times Visualizza l’articolo completo