La tua domanda per la Laurea Magistrale in Legge è pronta per il pubblico?
Is your question for the Master's Degree in Law ready for the public?
Principali preoccupazioni nella produzione di applicazioni basate su LLM
I grandi modelli di linguaggio (LLM) stanno diventando il pane quotidiano delle moderne applicazioni di elaborazione del linguaggio naturale e, in molti modi, stanno sostituendo una varietà di strumenti più specializzati come i modelli di riconoscimento delle entità nominate, i modelli di domande e risposte e i classificatori di testo. Come tale, è difficile immaginare un prodotto di elaborazione del linguaggio naturale che non utilizzi un LLM almeno in qualche modo. Sebbene i LLM portino una serie di vantaggi come l’aumento della personalizzazione e la generazione di dialoghi creativi, è importante capire le loro insidie e come affrontarle quando si integrano questi modelli in un prodotto software che serve gli utenti finali. Come si scopre, il monitoraggio è ben posizionato per affrontare molte di queste sfide ed è una parte essenziale del kit di strumenti per qualsiasi azienda che lavora con LLM.
Dati, Privacy e Iniezione di Prompt

Dati e privacy
La privacy e l’uso dei dati sono tra le principali preoccupazioni del consumatore moderno e, alla luce di noti scandali di condivisione dei dati come quello di Cambridge Analytica, i consumatori sono sempre meno propensi a utilizzare servizi e prodotti che mettono a rischio la loro privacy personale. Sebbene i LLM offrano agli utenti un’incredibile grado di personalizzazione, è importante capire i rischi che rappresentano. Come tutti i modelli di apprendimento automatico, i LLM sono vulnerabili ad attacchi mirati progettati per rivelare i dati di formazione e sono particolarmente a rischio a causa della loro natura generativa e possono persino rivelare accidentalmente i dati durante la generazione libera. Ad esempio, in un post del 2020, Nicholas Carlini, un ricercatore di Google Brain, ha discusso di come i LLM come GPT possano essere sollecitati in modo da rivelare informazioni personali identificabili come nome, indirizzo e indirizzo e-mail contenuti nei dati di formazione del modello. Ciò suggerisce che le aziende che sintonizzano i LLM sui dati dei loro clienti sono probabilmente inclini a generare questi stessi rischi di privacy. Allo stesso modo, un articolo di ricercatori di Microsoft conferma queste affermazioni e suggerisce specifiche strategie di mitigazione che utilizzano tecniche di privacy differenziale per addestrare i LLM riducendo le preoccupazioni sulla perdita di dati. Sfortunatamente, molte aziende non possono sfruttare queste tecniche perché utilizzano API LLM che non danno loro controllo sul processo di sintonizzazione. La soluzione per queste aziende consiste nell’inserire una fase di monitoraggio che convalidi e limiti gli output del modello prima di restituire i risultati a un utente finale. In questo modo, le aziende possono identificare e segnalare potenziali casi di perdita di dati di formazione prima della effettiva violazione della privacy. Ad esempio, uno strumento di monitoraggio può applicare tecniche come il riconoscimento delle entità nominate e il filtraggio Regex per identificare i nomi delle persone, gli indirizzi, le e-mail e altre informazioni sensibili generate da un modello prima che finiscano nelle mani sbagliate. Questo è particolarmente essenziale per le organizzazioni che lavorano in uno spazio a restrizione di privacy come la sanità o le finanze, dove entrano in gioco regolamenti rigorosi come HIPAA e FTC/FDIC. Anche le aziende che lavorano internazionalmente sono a rischio di violare regolamenti complessi specifici della posizione come il GDPR dell’UE.
Iniezione di prompt
L’iniezione di prompt si riferisce al processo (spesso malintenzionato) di progettare prompt di LLM che in qualche modo “ingannano” o confondono il sistema nel fornire output dannosi. Ad esempio, un recente articolo ha mostrato come gli attacchi di iniezione di prompt ben progettati rendano possibile sovvertire il modello GPT-4 di OpenAI e fornire informazioni falsamente errate e persino promuovere teorie del complotto. Si possono immaginare scenari ancora più nefasti in cui un utente sollecita un LLM per fornire consigli su come costruire una bomba, per dare dettagli su come commettere al meglio il suicidio o per generare codice che può essere utilizzato per infettare altri computer. La vulnerabilità agli attacchi di iniezione di prompt è un effetto collaterale sfortunato di come sono addestrati i LLM ed è difficile fare qualcosa sul front-end che impedisca ogni possibile attacco di iniezione di prompt. Anche i LLM più robusti e recenti, come il ChatGPT di OpenAI, allineato appositamente per la sicurezza, si sono dimostrati vulnerabili agli attacchi di iniezione di prompt.
A causa dei molteplici modi in cui l’iniezione di prompt può manifestarsi, è quasi impossibile proteggersi da tutte le possibilità. Come tale, il monitoraggio degli output generati dal LLM è cruciale poiché fornisce un meccanismo per identificare e segnalare informazioni sospette e persino generazioni dannose. Il monitoraggio può utilizzare semplici euristiche NLP o classificatori ML aggiuntivi per segnalare le risposte del modello che contengono contenuti dannosi e intercettarle prima che vengano restituite all’utente. Allo stesso modo, il monitoraggio dei prompt stessi può individuare alcuni dei prompt dannosi prima che vengano passati al modello.
- Sfide della produzione di massa di guida autonoma in Cina
- Percezione BEV nella guida autonoma in produzione di massa
- Analisi delle prestazioni e ottimizzazione del modello PyTorch – Parte 2.
Allucinazioni
Il termine allucinazione si riferisce alla propensione di un LLM ad “inventare” occasionalmente output che non sono effettivamente basati sulla realtà. L’iniezione di prompt e le allucinazioni possono manifestarsi come due facce della stessa medaglia, anche se con l’iniezione di prompt la generazione di falsità è un’intenzione deliberata dell’utente, mentre le allucinazioni sono un effetto collaterale non intenzionale dell’obiettivo di addestramento di un LLM. Poiché gli LLM sono addestrati a, ad ogni passo temporale, predire la parola successiva più probabile in una sequenza, sono in grado di generare testo altamente realistico. Di conseguenza, le allucinazioni sono una semplice conseguenza del fatto che ciò che è più probabile non è sempre vero.

Le ultime generazioni di LLM, come GPT-3 e GPT-4, sono ottimizzate utilizzando un algoritmo chiamato Reinforcement Learning from Human Feedback (RLHF) al fine di corrispondere all’opinione soggettiva di un essere umano su ciò che rende una buona risposta a un prompt. Sebbene ciò abbia permesso agli LLM di raggiungere livelli più elevati di fluidità conversazionale, a volte li porta anche a parlare troppo sicuramente quando emettono le loro risposte. Ad esempio, non è raro chiedere a ChatGPT una domanda e avere una risposta che sembra plausibile a prima vista, ma che a un’ulteriore esame si rivela oggettivamente falsa. Infondere agli LLM la capacità di fornire quantificazioni di incertezza è ancora un problema di ricerca attivo e non è probabile che sia risolto presto. Pertanto, gli sviluppatori di prodotti basati su LLM dovrebbero considerare la sorveglianza e l’analisi degli output nel tentativo di rilevare le allucinazioni e fornire risposte più sfumate rispetto a quelle fornite dai modelli LLM predefiniti. Questo è particolarmente vitale in contesti in cui gli output di un LLM potrebbero guidare qualche processo downstream. Ad esempio, se un chatbot LLM sta aiutando un utente fornendo raccomandazioni di prodotto e aiutando a effettuare un ordine sul sito web di un rivenditore, devono essere in vigore procedure di monitoraggio per garantire che il modello non suggerisca l’acquisto di un prodotto che non viene effettivamente venduto sul sito web di quel rivenditore.
Costi incontrollati
Poiché gli LLM stanno diventando sempre più commoditizzati tramite API, è importante che le aziende che integrano questi modelli nei loro prodotti abbiano un piano in atto per prevenire aumenti illimitati dei costi. Senza salvaguardie in atto, può essere facile per gli utenti di un prodotto generare migliaia di chiamate API e emettere prompt con migliaia di token (pensate al caso in cui un utente copia-incolla un documento estremamente lungo nell’input e chiede all’LLM di analizzarlo). Poiché le API LLM sono di solito tarate sulla base del numero di chiamate e del conteggio dei token (sia nel prompt che nella risposta del modello), non è difficile capire come i costi possano rapidamente sfuggire di mano. Pertanto, le aziende devono essere attente a come creano le loro strutture di prezzi al fine di compensare questi costi. Inoltre, le aziende dovrebbero avere procedure di monitoraggio in atto che consentano loro di capire come le fluttuazioni dell’utilizzo influiscono sui costi e consentano loro di mitigare queste fluttuazioni imponendo tetti di utilizzo o adottando altre misure rimediali.
Conclusione
Ogni azienda che utilizza gli LLM nei propri prodotti dovrebbe assicurarsi di incorporare la sorveglianza nei propri sistemi al fine di evitare e affrontare i molteplici problemi degli LLM. Inoltre, le soluzioni di monitoraggio utilizzate dovrebbero essere specificamente orientate alle applicazioni LLM e consentire agli utenti di identificare potenziali violazioni della privacy, prevenire e/o rimediare alle iniezioni di prompt, segnalare le allucinazioni e diagnosticare l’aumento dei costi. Le migliori soluzioni di monitoraggio affronteranno tutte queste problematiche e forniranno un quadro per le aziende per garantire che le loro applicazioni basate su LLM siano pronte per essere distribuite al pubblico. Abbia fiducia che la tua applicazione LLM sia completamente ottimizzata e funzioni come previsto prenotando una demo per vedere le complete capacità di monitoraggio di Mona.