I criminali informatici utilizzano WormGPT per violare la sicurezza delle email

Criminali usano WormGPT per attaccare email

Il panorama in continua evoluzione della criminalità informatica ha dato origine a strumenti nuovi e pericolosi. L’IA generativa, inclusi ChatGPT di OpenAI e lo strumento di cybercriminalità noto come WormGPT, sta emergendo come un’arma potente negli attacchi di compromissione delle email aziendali (BEC). Questi sofisticati modelli di intelligenza artificiale consentono ai criminali informatici di creare email di phishing altamente convincenti e personalizzate, aumentando il tasso di successo dei loro scopi malintenzionati. Questo articolo approfondisce la meccanica di questi attacchi, esplora i rischi intrinseci del phishing basato sull’IA e esamina i vantaggi unici dell’IA generativa nel facilitare la criminalità informatica.

Leggi anche: Hack cinese su Microsoft Cloud, passa inosservato per oltre un mese

Attacchi BEC basati sull’IA: la nuova minaccia all’orizzonte

La proliferazione delle tecnologie di intelligenza artificiale (IA), in particolare ChatGPT di OpenAI, ha aperto nuove opportunità per i criminali informatici. ChatGPT, un potente modello di IA, può generare testo simile a quello umano basandosi sugli input forniti. Questa capacità consente agli attori malintenzionati di automatizzare la creazione di email ingannevoli personalizzate per il destinatario, aumentando così la probabilità di un attacco riuscito.

Leggi anche: Top 10 strumenti di automazione delle email basati sull’IA da utilizzare nel 2023

Svelare casi reali: il potere dell’IA generativa nei forum di cybercrime

In recenti discussioni su forum di cybercrime, i criminali informatici hanno mostrato il potenziale dell’utilizzo dell’IA generativa per perfezionare le email di phishing. Un metodo prevede la composizione dell’email nella lingua madre dell’attaccante, la traduzione e l’inserimento in ChatGPT per migliorarne la sofisticazione e la formalità. Questa tattica consente agli attaccanti di creare email persuasive, anche se non hanno una buona padronanza di una particolare lingua.

Leggi anche: L’IA discrimina i non madrelingua inglesi

“Jailbreaking” AI: manipolare le interfacce a scopo malintenzionato

Una tendenza preoccupante nei forum di cybercrime riguarda la distribuzione di “jailbreak” per interfacce di intelligenza artificiale come ChatGPT. Questi prompt specializzati manipolano l’IA per generare output che potrebbero rivelare informazioni sensibili, produrre contenuti inappropriati o eseguire codice dannoso. La crescente popolarità di tali pratiche mette in evidenza le sfide nel mantenere la sicurezza dell’IA contro i criminali informatici determinati.

Leggi anche: PoisonGPT: Hugging Face LLM diffonde notizie false

Arriva WormGPT: l’alternativa da blackhat ai modelli GPT

WormGPT, un modulo di intelligenza artificiale scoperto di recente, si presenta come un’alternativa malintenzionata ai modelli GPT progettati appositamente per attività malvagie. Basato sul modello linguistico GPTJ, sviluppato nel 2021, WormGPT vanta funzionalità come supporto illimitato dei caratteri, memoria delle conversazioni e capacità di formattazione del codice.

Leggi anche: ChatGPT investigato dalla Federal Trade Commission per possibili danni

Svelando il potenziale oscuro di WormGPT: l’esperimento

Testando le capacità di WormGPT negli attacchi BEC, sono emersi risultati allarmanti. Il modello di intelligenza artificiale ha generato un’email altamente persuasiva e strategicamente astuta, mostrando il suo potenziale per sofisticati attacchi di phishing e BEC. A differenza di ChatGPT, WormGPT opera senza confini etici o limitazioni, rappresentando una significativa minaccia anche nelle mani di cybercriminali alle prime armi.

Leggi anche: Criminali che utilizzano l’IA per impersonare i propri cari

Vantaggi dell’IA generativa negli attacchi BEC

L’IA generativa conferisce diversi vantaggi ai criminali informatici nell’esecuzione degli attacchi BEC:

  • Grammatica eccezionale: le email generate dall’IA possiedono una grammatica impeccabile, riducendo la probabilità di essere segnalate come sospette.
  • Soglia di accesso ridotta: l’accessibilità dell’IA generativa democratizza gli attacchi BEC sofisticati, consentendo anche a criminali meno esperti di utilizzare questi potenti strumenti.

Strategie preventive: proteggere gli attacchi BEC basati sull’IA

Per contrastare la crescente minaccia degli attacchi BEC basati sull’IA, le organizzazioni possono implementare le seguenti strategie:

  • Formazione specifica per BEC: le aziende dovrebbero sviluppare programmi di formazione completi e regolarmente aggiornati per contrastare gli attacchi BEC, mettendo l’accento sull’IA e sulle tattiche degli attaccanti. Questa formazione dovrebbe essere parte integrante dello sviluppo professionale dei dipendenti.
  • Miglioramento delle misure di verifica delle email: dovrebbero essere applicati rigorosi processi di verifica delle email, segnalando automaticamente le email che impersonano dirigenti interni o fornitori e identificando parole chiave associate agli attacchi BEC.

Inoltre Leggi: 6 Passaggi per Proteggere la Tua Privacy Durante l’Utilizzo di Strumenti di AI Generativa

La Nostra Opinione

L’AI Generativa, sebbene rivoluzionaria, ha anche aperto nuove porte per i cybercriminali da sfruttare. L’emergere di WormGPT come strumento di AI dannoso esemplifica la crescente necessità di misure di sicurezza robuste contro il cybercrimine guidato dall’AI. Le organizzazioni devono rimanere vigili e adattarsi continuamente alle minacce in evoluzione per proteggere se stesse e i loro dipendenti dai pericoli degli attacchi BEC guidati dall’AI.