Come le banche devono sfruttare l’IA responsabile per affrontare il crimine finanziario

Le banche e l'IA responsabile contro il crimine finanziario

La frode non è certamente una novità nel settore dei servizi finanziari, ma di recente c’è stata un’accelerazione che merita di essere analizzata in maggior dettaglio. Con lo sviluppo e l’evoluzione della tecnologia a un ritmo accelerato, i criminali hanno trovato ancora più vie per superare le barriere di conformità, dando vita a una corsa agli armamenti tecnologici tra coloro che cercano di proteggere i consumatori e coloro che cercano di nuocere loro. I truffatori stanno combinando tecnologie emergenti con la manipolazione emotiva per truffare le persone di migliaia di dollari, lasciando agli istituti bancari l’onere di potenziare le loro difese per contrastare efficacemente la minaccia in continua evoluzione.

Per affrontare l’aumento dell’epidemia di frodi, le stesse banche stanno iniziando a sfruttare nuove tecnologie. Con le banche che dispongono di una ricchezza di dati che finora non è stata utilizzata appieno, la tecnologia dell’IA ha la capacità di permettere alle banche di individuare comportamenti criminali prima che accadano, analizzando enormi insiemi di dati.

Aumento dei rischi di frode

È positivo vedere i governi di tutto il mondo adottare un approccio proattivo nei confronti dell’IA, in particolare negli Stati Uniti e in Europa. Ad aprile, l’amministrazione Biden ha annunciato un investimento di 140 milioni di dollari nella ricerca e sviluppo dell’intelligenza artificiale – un passo avanti significativo senza dubbio. Tuttavia, l’epidemia di frodi e il ruolo di questa nuova tecnologia nel facilitare il comportamento criminale non possono essere sottovalutati – qualcosa che ritengo che il governo debba tenere ben presente.

Le frodi hanno causato ai consumatori una perdita di 8,8 miliardi di dollari nel 2022, un aumento del 44% rispetto al 2021. Questo aumento drastico può essere in gran parte attribuito alla sempre più disponibile tecnologia, inclusa l’IA, che i truffatori stanno iniziando a manipolare.

La Federal Trade Commission (FTC) ha osservato che la forma più diffusa di frode segnalata sono le truffe degli impostori, con perdite di 2,6 miliardi di dollari segnalate l’anno scorso. Ci sono diversi tipi di truffe degli impostori, che vanno dai criminali che si fingono appartenenti a enti governativi come l’IRS a parenti che si fingono in difficoltà; entrambe le tattiche sono utilizzate per ingannare i consumatori vulnerabili a trasferire volontariamente denaro o beni.

A marzo di quest’anno, la FTC ha emesso un ulteriore avvertimento riguardo ai criminali che utilizzano registrazioni audio esistenti per clonare le voci dei parenti tramite l’IA. Nell’avvertimento si afferma “Non fidarti della voce”, un severo monito per aiutare i consumatori a non inviare denaro involontariamente ai truffatori.

I tipi di frodi utilizzati dai criminali stanno diventando sempre più variati e avanzati, con le truffe romantiche che continuano ad essere un problema chiave. Il recente rapporto di Feedzai, “L’impatto umano della frode e del crimine finanziario sulla fiducia dei clienti nelle banche”, ha rilevato che il 42% delle persone negli Stati Uniti è caduto vittima di una truffa romantica.

L’IA generativa, in grado di generare testo, immagini e altri media in risposta a stimoli, ha dato ai criminali la possibilità di lavorare in massa, trovando nuovi modi per ingannare i consumatori e far loro consegnare il denaro. ChatGPT è già stato sfruttato dai truffatori, consentendo loro di creare messaggi altamente realistici per ingannare le vittime facendole pensare di essere qualcun altro, ed è solo la punta dell’iceberg.

Man mano che l’IA generativa diventa più sofisticata, sarà sempre più difficile per le persone distinguere ciò che è reale da ciò che non lo è. Di conseguenza, è fondamentale che le banche agiscano rapidamente per rafforzare le loro difese e proteggere la base di clienti.

L’IA come strumento di difesa

Tuttavia, così come l’IA può essere utilizzata come strumento criminale, può anche aiutare a proteggere efficacemente i consumatori. Può lavorare a velocità analizzando enormi quantità di dati per prendere decisioni intelligenti in un battito di ciglia. In un momento in cui i team di conformità sono enormemente sovraccarichi, l’IA aiuta a decidere cosa sia una transazione fraudolenta e cosa non lo sia.

Abbracciando l’IA, alcune banche stanno creando immagini complete dei clienti, consentendo loro di individuare rapidamente eventuali comportamenti insoliti. I dati comportamentali come le tendenze delle transazioni o l’orario in cui le persone accedono tipicamente al loro servizio di home banking possono contribuire a creare un quadro del comportamento “buono” abituale di una persona.

Questo è particolarmente utile nel rilevare la frode di dirottamento dell’account, una tecnica utilizzata dai criminali per fingere di essere clienti genuini e prendere il controllo di un account per effettuare pagamenti non autorizzati. Se il criminale si trova in un fuso orario diverso o inizia a tentare in modo erratico di accedere all’account, verrà segnalato come comportamento sospetto e verrà generato un rapporto di attività sospetta (SAR, Suspicious Activity Report). L’IA può accelerare questo processo generando automaticamente i rapporti e compilandoli, risparmiando tempo e costi per i team di conformità.

Un’IA ben addestrata può anche aiutare a ridurre i falsi positivi, un enorme peso per le istituzioni finanziarie. I falsi positivi si verificano quando transazioni legittime vengono segnalate come sospette e potrebbero portare al blocco di una transazione del cliente – o peggio, del suo account.

Identificare erroneamente un cliente come un truffatore è uno dei problemi principali affrontati dalle banche. La ricerca di Feedzai ha rilevato che la metà dei consumatori lascerebbe la propria banca se bloccasse una transazione legittima, anche se la risolvesse rapidamente. L’IA può aiutare a ridurre questo peso creando una visione migliore e unificata del cliente, in grado di lavorare velocemente per decifrare se una transazione è legittima.

Tuttavia, è fondamentale che le istituzioni finanziarie adottino l’IA in modo responsabile e senza pregiudizi. Ancora una tecnologia relativamente nuova, che si basa sull’apprendimento di comportamenti esistenti, può rilevare comportamenti pregiudizievoli e prendere decisioni errate che potrebbero influire negativamente sulle banche e sulle istituzioni finanziarie se non implementate correttamente.

Le istituzioni finanziarie hanno la responsabilità di conoscere meglio l’IA etica e responsabile e di collaborare con partner tecnologici per monitorare e mitigare i pregiudizi dell’IA, proteggendo al contempo i consumatori dalle frodi.

La fiducia è la valuta più importante che una banca possiede e i clienti vogliono sentirsi sicuri sapendo che la loro banca sta facendo il massimo per proteggerli. Agendo rapidamente e responsabilmente, le istituzioni finanziarie possono sfruttare l’IA per costruire barriere contro i truffatori e trovarsi nella migliore posizione per proteggere i propri clienti dalle minacce criminali in continua evoluzione.