Svelare l’autore IA o umano? Esplorare l’emergere della IA forense con gli innovativi strumenti di rilevamento del testo di IBM

Rivelare l'autore IA o umano con gli strumenti di rilevamento del testo di IBM.

Nell’era dell’intelligenza artificiale in rapida evoluzione, una sfida cruciale richiede attenzione: la trasparenza e l’affidabilità nell’intelligenza artificiale generativa. I ricercatori di IBM mirano ad armare il mondo con strumenti di rilevamento e attribuzione dell’IA per cambiare il nostro modo di percepire l’IA generativa. Tuttavia, la complessità sta nel fatto che gli LLM non sono così bravi nel rilevare i contenuti che scrivono o nel risalire a un modello ottimizzato alla sua fonte. Mentre continuano a plasmare la comunicazione di tutti i giorni, i ricercatori stanno lavorando a nuovi strumenti per rendere l’IA generativa più spiegabile e affidabile.

Adattando il loro affidabile toolkit di intelligenza artificiale per la base dell’era moderna, i ricercatori mirano a garantire la responsabilità e la fiducia in queste tecnologie in via di sviluppo. I ricercatori di IBM e di Harvard hanno contribuito a creare uno dei primi rilevatori di testo AI, GLTR, che analizzano le relazioni statistiche tra le parole o cercano testo generato evidente. I ricercatori di IBM hanno sviluppato RADAR, uno strumento innovativo che aiuta a identificare il testo generato da AI che è stato parafrasato per ingannare i rilevatori. Mette a confronto due modelli di linguaggio, uno che parafrasa il testo e l’altro che verifica se è stato generato da AI. Sono state adottate misure di sicurezza per l’uso dell’IA generativa limitando l’accesso dei dipendenti a modelli di terze parti come Chatgpt, impedendo così la divulgazione dei dati dei clienti.

Nel mondo dell’IA generativa, la prossima sfida è identificare l’origine dei modelli che hanno prodotto il testo e il loro testo attraverso un campo noto come attribuzione. I ricercatori di IBM hanno sviluppato un classificatore di coppie corrispondenti per confrontare le risposte e rivelare i modelli correlati. L’attribuzione automatica dell’IA utilizzando il machine learning ha aiutato i ricercatori a individuare l’origine di un modello specifico e di numerosi altri. Questi strumenti aiutano a risalire alla base del modello e comprenderne il comportamento.

IBM è da tempo un sostenitore dell’IA spiegabile e affidabile. Hanno introdotto il toolkit AI Fairness 360, che incorpora la mitigazione del pregiudizio e la spiegabilità nei loro prodotti. E ora, con il rilascio di novembre di Watsonx.governance, stanno potenziando la trasparenza nei flussi di lavoro dell’IA. IBM è determinata nella sua missione di fornire strumenti di trasparenza accessibili a tutti.