Intelligenza Artificiale e truffe: le nuove frontiere della frode

Intelligenza artificiale e truffe, IA, AI, truffe, scam, frode, voice cloning, Language Models, modelli di linguaggio, chatbot

Fra truffe, malware e tracker, il mondo digitale si è trasformato in una costante lotta alla preservazione delle informazioni personali ed economiche. Ma la diffusione delle tecnologie generative ha aperto una nuova frontiera nel campo della truffa.

Intelligenza Artificiale e truffe: un’evoluzione tutta digitale – Quotidianamente riceviamo chiamate spam, mail con avvisi bancari fasulli, pubblicità ingannevoli, avvisi di phishing sui nostri telefoni e sulle caselle di poste elettronica. Da qualche parte nel mondo, qualcuno sta venendo ingannato.

Riconoscere le truffe nell’ambiente digitale è solitamente questione di allenamento: le nuove generazioni sanno di non dover dare le proprie credenziali a chi gli si presenti come un operatore di un qualunque servizio, di controllare bene l’indirizzo di posta delle mail inviate dalla banca, e di cestinare le richieste di presunti benefattori pronti a regalare soldi alla prima buona anima che li ascolti e gli dia i propri estremi bancari.

Ma chi sa riconoscere una truffa non è mai il bersaglio prescelto. E la diffusione dei modelli generativi ha aperto una nuova dimensione nel mondo dello scamming, sia esso online o no. Un problema in evoluzione, tanto da essere parte del nuovo ordine esecutivo della presidenza Biden-Harris sulle IA.

Lezioni di adescamento e di targeting: la truffa del principe nigeriano

La truffa del principe nigeriano è una delle più famose nella storia dello scamming, ormai nota in tutto il mondo per la sua pervasività sugli account di posta di cittadini ed aziende, e capace di aprire uno squarcio nei meccanismi sottostanti alla maggior parte delle truffe online.

La storia, pur variando in personaggi e luoghi, mantiene sempre la stessa struttura: nella mail, una persona abbiente e proveniente da qualche parte del mondo poco nota (in questo caso, appunto, un principe nigeriano) si presenta come vittima di una storia di violenza (rapimento della famiglia, esilio, omicidio) e chiede urgentemente al lettore un’ingente somma monetaria in anticipo per poterlo aiutare, che assicura gli sarà ritornata con interessi il prima possibile. Dopo aver ricevuto la somma, il truffatore ovviamente scomparirà.

La truffa ha origini sorprendentemente antiche, datate sino al 1919, dove circolava attraverso i servizi postali, e si sta ora evolvendo usando elementi di geopolitica contemporanea: i principi nigeriani del giorno d’oggi si presentano come rifugiati dall’Ucraina, o soldati NATO in missione.

Due elementi molto importanti e spesso ignorati della truffa sono l’assurdità della storia e gli errori. Chiunque abbia mai letto una mail fraudolenta saprà che esse sono costellate di errori grammaticali e presentanti storie al limite dell’assurdo, e avrà potuto additarle a un pessimo lavoro di traduzione, o a una scarsa immaginazione creativa. La realtà è che tali scelte esistono parzialmente per design, fungendo da scrematura per il truffatore: una persona che riconosca i segnali dalla truffa sin dall’inizio non gli farà infatti perdere tempo ritirandosi quando le verranno chieste le informazioni sensibili, dove invece chi non è in grado di vedere l’inganno nell’immediato sarà più facilmente adescabile in seguito.

Si capisce allora che oggetto dei truffatori sono i bersagli più deboli, sia da un punto di vista culturale che di competenza al digitale: gli anziani non consoni alla navigazione nel web  e alle nuove tecnologie costituiscono infatti buona parte delle persone truffate online.  

Intelligenza Artificiale e truffe – una nuova frontiera per una nuova generazione

La diffusione e democratizzazione – per così dire – dei modelli generativi ha permesso ai truffatori di mirare verso un pubblico più giovane, e di compiere dunque un nuovo salto generazionale.

Fra le nuove truffe, la più nota è il voice cloning, in cui la vittima riceve una telefonata in cui un modello di sintesi audio replica la voce di una persona cara affermando di essere in un qualche tipo di crisi e chiedendo urgentemente un aiuto economico. Prima della chiamata, i truffatori avranno infatti ottenuto la voce della persona da imitare, scandagliando i social media o chiamando direttamente. Secondo la ricerca compiuta da McAfee, per ottenere un campionamento efficace sono sufficienti pochissimi secondi.



Un’altra truffa degna di nota, quella dei profili falsi/bot sui social media, ha trovato nelle IA il suo naturale corso evolutivo: dove prima era decisamente facile individuare i profili fasulli, osservando elementi quali fotografie chiaramente appartenenti a persone diverse o assenti del tutto di didascalie alle foto, i nuovi account di phishing fanno uso delle tecnologie generative per creare profili plausibili e persone inesistenti, le cui foto in bacheca hanno spesso come didascalie brevi testi generati.

Infine, i chatbot.  L’applicazione di messaggistica istantanea Telegram ha infatti recentemente subito un peggioramento alla sua già instabile situazione relativa al phishing attraverso bot. Usando infatti le nuove tecnologie dei Large Language Models come GPT o Bard e i dati personali presenti online, si può infatti essere contattati da chatbot in grado di apparire estremamente realistici, i quali potrebbero “sapere” fra le altre cose, la nostra posizione (è personalmente accaduto di essere contattato da un bot che si fingeva un ragazzo in cerca di stanza in affitto nella città in cui vivevo).

Intelligenza Artificiale e truffe – nuovi accorgimenti per un nuovo mondo?

I casi qui presentati sono solo la punta di un iceberg terribilmente profondo: si pensi ad esempio alla possibilità di usare le tecnologie generative per la creazione di Malware, o di creare deepfake per poter effettuare videochiamate fraudolente.

Dove si era accennato che la truffa del principe nigeriano prevedeva in sé errori e stravaganze per poter abbindolare solo i più deboli, l’uso di IA pare invece permettere ai truffatori di abbracciare un campo di vittime più vasto e largamente impreparato.

Fra i consigli dati dal governo della Florida per proteggersi dagli attacchi di voice cloning, fuori da un appello all’impiego di senso critico da parte del bersaglio, vi è l’istituzione  di una parola in codice con la propria famiglia e di ricontrollare l’ID della chiamata, premettendo che anch’essa può essere fasulla.

Bisognerà dunque stabilire una nuova serie di “errori” da poter facilmente individuare, siano essi le attuali stranezze di linguaggio dei chatbot, i contorni sfocati dei volti ricreati in deepfake o le strane andature delle voci replicate con IA. Ma fino ad allora, occorrerà essere vigili.

Roberto Pedotti

Exit mobile version