I criminali informatici utilizzano WormGPT per violare la sicurezza delle email
Criminali usano WormGPT per attaccare email
Il panorama in continua evoluzione della criminalità informatica ha dato origine a strumenti nuovi e pericolosi. L’IA generativa, inclusi ChatGPT di OpenAI e lo strumento di cybercriminalità noto come WormGPT, sta emergendo come un’arma potente negli attacchi di compromissione delle email aziendali (BEC). Questi sofisticati modelli di intelligenza artificiale consentono ai criminali informatici di creare email di phishing altamente convincenti e personalizzate, aumentando il tasso di successo dei loro scopi malintenzionati. Questo articolo approfondisce la meccanica di questi attacchi, esplora i rischi intrinseci del phishing basato sull’IA e esamina i vantaggi unici dell’IA generativa nel facilitare la criminalità informatica.
Leggi anche: Hack cinese su Microsoft Cloud, passa inosservato per oltre un mese
Attacchi BEC basati sull’IA: la nuova minaccia all’orizzonte
La proliferazione delle tecnologie di intelligenza artificiale (IA), in particolare ChatGPT di OpenAI, ha aperto nuove opportunità per i criminali informatici. ChatGPT, un potente modello di IA, può generare testo simile a quello umano basandosi sugli input forniti. Questa capacità consente agli attori malintenzionati di automatizzare la creazione di email ingannevoli personalizzate per il destinatario, aumentando così la probabilità di un attacco riuscito.
Leggi anche: Top 10 strumenti di automazione delle email basati sull’IA da utilizzare nel 2023
- Crea uno slogan memorabile utilizzando ChatGPT
- Top Algoritmi e Librerie di Rilevamento Oggetti in Intelligenza Artificiale (AI)
- Incontra FreedomGPT una tecnologia AI open source costruita su Alpaca e programmata per riconoscere e dare priorità alle considerazioni etiche senza alcun filtro di censura.
Svelare casi reali: il potere dell’IA generativa nei forum di cybercrime
In recenti discussioni su forum di cybercrime, i criminali informatici hanno mostrato il potenziale dell’utilizzo dell’IA generativa per perfezionare le email di phishing. Un metodo prevede la composizione dell’email nella lingua madre dell’attaccante, la traduzione e l’inserimento in ChatGPT per migliorarne la sofisticazione e la formalità. Questa tattica consente agli attaccanti di creare email persuasive, anche se non hanno una buona padronanza di una particolare lingua.
Leggi anche: L’IA discrimina i non madrelingua inglesi
“Jailbreaking” AI: manipolare le interfacce a scopo malintenzionato
Una tendenza preoccupante nei forum di cybercrime riguarda la distribuzione di “jailbreak” per interfacce di intelligenza artificiale come ChatGPT. Questi prompt specializzati manipolano l’IA per generare output che potrebbero rivelare informazioni sensibili, produrre contenuti inappropriati o eseguire codice dannoso. La crescente popolarità di tali pratiche mette in evidenza le sfide nel mantenere la sicurezza dell’IA contro i criminali informatici determinati.
Leggi anche: PoisonGPT: Hugging Face LLM diffonde notizie false
Arriva WormGPT: l’alternativa da blackhat ai modelli GPT
WormGPT, un modulo di intelligenza artificiale scoperto di recente, si presenta come un’alternativa malintenzionata ai modelli GPT progettati appositamente per attività malvagie. Basato sul modello linguistico GPTJ, sviluppato nel 2021, WormGPT vanta funzionalità come supporto illimitato dei caratteri, memoria delle conversazioni e capacità di formattazione del codice.
Leggi anche: ChatGPT investigato dalla Federal Trade Commission per possibili danni
Svelando il potenziale oscuro di WormGPT: l’esperimento
Testando le capacità di WormGPT negli attacchi BEC, sono emersi risultati allarmanti. Il modello di intelligenza artificiale ha generato un’email altamente persuasiva e strategicamente astuta, mostrando il suo potenziale per sofisticati attacchi di phishing e BEC. A differenza di ChatGPT, WormGPT opera senza confini etici o limitazioni, rappresentando una significativa minaccia anche nelle mani di cybercriminali alle prime armi.
Leggi anche: Criminali che utilizzano l’IA per impersonare i propri cari
Vantaggi dell’IA generativa negli attacchi BEC
L’IA generativa conferisce diversi vantaggi ai criminali informatici nell’esecuzione degli attacchi BEC:
- Grammatica eccezionale: le email generate dall’IA possiedono una grammatica impeccabile, riducendo la probabilità di essere segnalate come sospette.
- Soglia di accesso ridotta: l’accessibilità dell’IA generativa democratizza gli attacchi BEC sofisticati, consentendo anche a criminali meno esperti di utilizzare questi potenti strumenti.
Strategie preventive: proteggere gli attacchi BEC basati sull’IA
Per contrastare la crescente minaccia degli attacchi BEC basati sull’IA, le organizzazioni possono implementare le seguenti strategie:
- Formazione specifica per BEC: le aziende dovrebbero sviluppare programmi di formazione completi e regolarmente aggiornati per contrastare gli attacchi BEC, mettendo l’accento sull’IA e sulle tattiche degli attaccanti. Questa formazione dovrebbe essere parte integrante dello sviluppo professionale dei dipendenti.
- Miglioramento delle misure di verifica delle email: dovrebbero essere applicati rigorosi processi di verifica delle email, segnalando automaticamente le email che impersonano dirigenti interni o fornitori e identificando parole chiave associate agli attacchi BEC.
Inoltre Leggi: 6 Passaggi per Proteggere la Tua Privacy Durante l’Utilizzo di Strumenti di AI Generativa
La Nostra Opinione
L’AI Generativa, sebbene rivoluzionaria, ha anche aperto nuove porte per i cybercriminali da sfruttare. L’emergere di WormGPT come strumento di AI dannoso esemplifica la crescente necessità di misure di sicurezza robuste contro il cybercrimine guidato dall’AI. Le organizzazioni devono rimanere vigili e adattarsi continuamente alle minacce in evoluzione per proteggere se stesse e i loro dipendenti dai pericoli degli attacchi BEC guidati dall’AI.