L’IA generativa nell’industria sanitaria ha bisogno di una dose di spiegabilità

Generative AI in the healthcare industry needs explainability

La notevole velocità con cui gli strumenti di intelligenza artificiale generativa basati su testo possono completare compiti di scrittura e comunicazione di alto livello ha colpito sia le aziende che i consumatori. Ma i processi che avvengono dietro le quinte per consentire queste capacità impressionanti possono rendere rischioso per settori sensibili e regolamentati dal governo, come assicurazioni, finanza o assistenza sanitaria, sfruttare l’intelligenza artificiale generativa senza adottare una considerevole cautela.

Alcuni degli esempi più illustrativi di questo si possono trovare nel settore sanitario.

Tali problemi sono tipicamente legati ai set di dati estesi e diversificati utilizzati per addestrare i Large Language Models (LLM) – i modelli che gli strumenti di intelligenza artificiale generativa basati su testo utilizzano per eseguire compiti di alto livello. Senza un’intervento esplicito da parte dei programmatori, questi LLM tendono a recuperare dati indiscriminatamente da varie fonti su Internet per ampliare la loro base di conoscenza.

Questo approccio è più appropriato per casi d’uso orientati al consumatore a basso rischio, in cui l’obiettivo finale è indirizzare i clienti verso offerte desiderabili con precisione. Tuttavia, sempre più spesso, grandi set di dati e i percorsi confusi attraverso cui i modelli di intelligenza artificiale generano i loro output stanno oscurando l’esplicabilità che ospedali e operatori sanitari richiedono per tracciare e prevenire inesattezze potenziali.

In questo contesto, l’esplicabilità si riferisce alla capacità di comprendere i percorsi logici di un dato LLM. I professionisti sanitari che desiderano adottare strumenti di intelligenza artificiale generativa assistita devono avere il modo di comprendere come i loro modelli producono i risultati in modo che i pazienti e il personale abbiano una piena trasparenza durante vari processi decisionali. In altre parole, in un settore come quello sanitario, in cui sono in gioco delle vite, gli stakeholder hanno semplicemente troppo da perdere per interpretare erroneamente i dati utilizzati per addestrare gli strumenti di intelligenza artificiale.

Fortunatamente, c’è un modo per aggirare il dilemma dell’esplicabilità dell’intelligenza artificiale generativa: richiede solo un po’ più di controllo e attenzione.

Mistero e Scetticismo

Nell’intelligenza artificiale generativa, il concetto di comprendere come un LLM passa dal Punto A – l’input – al Punto B – l’output – è molto più complesso rispetto agli algoritmi non generativi che seguono schemi più definiti.

Gli strumenti di intelligenza artificiale generativa fanno innumerevoli connessioni mentre si spostano dall’input all’output, ma per l’osservatore esterno, come e perché effettuano una determinata serie di connessioni rimane un mistero. Senza un modo per vedere il “processo di pensiero” che un algoritmo di intelligenza artificiale segue, gli operatori umani non hanno un mezzo completo per investigare il suo ragionamento e tracciare eventuali inesattezze.

Inoltre, i dataset in continua espansione utilizzati dagli algoritmi di machine learning complicano ulteriormente l’esplicabilità. Più grande è il dataset, più probabile è che il sistema impari sia da informazioni rilevanti che irrilevanti e generi “allucinazioni dell’intelligenza artificiale” – falsità che deviano dai fatti esterni e dalla logica contestuale, anche se convincentemente.

Nel settore sanitario, questi tipi di risultati errati possono causare una serie di problemi, come errori diagnostici e prescrizioni errate. A parte le conseguenze etiche, legali e finanziarie, tali errori potrebbero danneggiare facilmente la reputazione dei fornitori di assistenza sanitaria e delle istituzioni mediche che rappresentano.

Quindi, nonostante il suo potenziale per migliorare le interventi medici, migliorare la comunicazione con i pazienti e rafforzare l’efficienza operativa, l’intelligenza artificiale generativa nell’assistenza sanitaria rimane avvolta nello scetticismo, e giustamente – il 55% dei medici non crede che sia pronta per l’uso medico e il 58% non si fida affatto. Tuttavia, le organizzazioni sanitarie stanno andando avanti, con il 98% che integra o pianifica una strategia di implementazione di intelligenza artificiale generativa nel tentativo di compensare l’impatto della carenza di personale del settore.

Controllare la Fonte

Il settore sanitario viene spesso colto impreparato nel clima attuale dei consumatori, che valuta l’efficienza e la velocità al di sopra di garantire misure di sicurezza inossidabili. Le recenti notizie sui pericoli del web scraping di dati quasi illimitato per l’addestramento di LLM, che ha portato a cause legali per violazione del copyright, hanno portato questi problemi in primo piano. Alcune aziende sono anche accusate di aver utilizzato i dati personali dei cittadini per addestrare questi modelli linguistici, violando potenzialmente le leggi sulla privacy.

Per questo motivo, gli sviluppatori di intelligenza artificiale per settori altamente regolamentati dovrebbero esercitare un controllo sulle fonti di dati per limitare possibili errori. Vale a dire, dare priorità all’estrazione di dati da fonti affidabili e validate dal settore anziché raschiare pagine web esterne in modo casuale e senza permesso esplicito. Per il settore sanitario, ciò significa limitare gli input di dati alle pagine FAQ, i file CSV e i database medici, tra le altre fonti interne.

Se tutto ciò sembra limitante, prova a cercare un servizio sul sito web di un grande sistema sanitario. Le organizzazioni sanitarie statunitensi pubblicano centinaia, se non migliaia, di pagine informative sulle loro piattaforme; la maggior parte di esse è così nascosta che i pazienti non possono mai accedervi effettivamente. Soluzioni di intelligenza artificiale generativa basate su dati interni possono fornire queste informazioni ai pazienti in modo comodo e senza soluzione di continuità. Questo è un vantaggio per tutti, poiché il sistema sanitario finalmente ottiene un ritorno sull’investimento da questo contenuto e i pazienti possono trovare i servizi di cui hanno bisogno istantaneamente e senza sforzo.

Cosa c’è di nuovo per l’IA generativa nelle industrie regolamentate?

Il settore sanitario può beneficiare dell’IA generativa in vari modi.

Pensiamo, ad esempio, all’ampia diffusione del burnout che sta colpendo il settore sanitario negli Stati Uniti di recente – si prevede che quasi il 50% della forza lavoro si dimetta entro il 2025. I chatbot alimentati dall’IA generativa potrebbero contribuire a alleviare gran parte del carico di lavoro e preservare i team di accesso ai pazienti estremamente sollecitati.

Dal lato dei pazienti, l’IA generativa ha il potenziale per migliorare i servizi del call center dei fornitori di assistenza sanitaria. L’automazione dell’IA ha il potere di gestire una vasta gamma di richieste attraverso vari canali di contatto, comprese FAQ, problemi IT, rinnovi di farmaci e riferimenti a medici. Oltre alla frustrazione che deriva dall’attesa al telefono, solo circa la metà dei pazienti statunitensi riesce a risolvere con successo i loro problemi alla prima chiamata, il che comporta alti tassi di abbandono e un accesso compromesso alle cure. La scarsa soddisfazione del cliente risultante crea ulteriore pressione perché il settore agisca.

Perché il settore possa veramente beneficiare dell’implementazione dell’IA generativa, i fornitori di assistenza sanitaria devono facilitare una ristrutturazione intenzionale dei dati a cui accedono i loro LLM.