Proteggi la tua app LLM. Un must da leggere!

Proteggi la tua app LLM. Un must da leggere!

Obiettivo di educare sui potenziali rischi di sicurezza nel deploy di LLM

Il progetto OWASP Top 10 per le applicazioni di Large Language Model mira ad educare sviluppatori, designer, architetti, manager e organizzazioni sui potenziali rischi di sicurezza nel deploy e nella gestione di Large Language Models (LLM). Il progetto elenca le 10 vulnerabilità più critiche spesso riscontrate nelle applicazioni LLM, evidenziando il loro impatto potenziale, la facilità di sfruttamento e la prevalenza nelle applicazioni reali.

Foto di GuerrillaBuzz su Unsplash

I seguenti 10 rischi di sicurezza critici durante il deploy di un LLM devono essere presi in considerazione –

INIEZIONE DI PROMPT

Gli attaccanti possono manipolare gli LLM attraverso input manipolati, facendo eseguire al sistema le intenzioni dell’attaccante. Ciò può essere fatto direttamente attraverso l’inserimento avversario del prompt di sistema o indirettamente attraverso input esterni manipolati, potenzialmente portando a esfiltrazione di dati, ingegneria sociale e altri problemi.

Esempi

* Le iniezioni dirette di prompt sovrascrivono i prompt di sistema* Le iniezioni indirette di prompt intercettano il contesto della conversazione* Un utente utilizza un LLM per riassumere una pagina web contenente un’iniezione di prompt indiretta.

Prevenzione

* Imporre il controllo dei privilegi sull’accesso LLM ai sistemi di back-end* Implementare l’intervento umano per una funzionalità estensibile* Separare i contenuti esterni dai prompt degli utenti* Stabilire confini di fiducia tra LLM, fonti esterne e funzionalità estensibili.

Scenari di attacco

* Un attaccante fornisce un’iniezione diretta di prompt a un chatbot di supporto basato su LLM* Un attaccante incorpora un’iniezione indiretta di prompt in una pagina web* Un utente utilizza un LLM per riassumere una pagina web contenente un’iniezione di prompt indiretta.

GESTIONE INSEGURO DEI RISULTATI

La gestione insicura dei risultati è una vulnerabilità che si verifica quando un componente downstream accetta ciecamente l’output di un Large Language Model (LLM) senza una corretta analisi. Ciò può portare a XSS e…