Truffe utilizzanti Intelligenza Artificiale: uno spinoso problema dei modelli generativi

Il trend delle IA ha causato notevoli problemi nel mondo delle truffe online, ora orientate verso nuove direzioni di realismo, mischiandosi alle questioni delle fake news e delle criptovalute

Le pubblicità dei social media sono inondate di truffe. Repliche digitali di attori Hollywoodiani e personalità di spicco promuovono investimenti e applicazioni fraudolente, finti articoli di testate giornalistiche riportano interviste a politici in cui si rivelano i “segreti per far soldi”. L’abuso dei modelli generativi ha permesso un nuovo rapporto fra truffe e intelligenza artificiale.

Truffe utilizzanti Intelligenza Artificiale: uno spinoso problema dei modelli generativi – Facebook, un inserto pubblicitario mostra “Julia Roberts” mentre accusa l’onnipresente Big Pharma di nascondere ai cittadini statunitensi il rituale segreto per guarire dalla disfunzione erettile. 

YouTube. in un’altra pubblicità, la voce di Joe Rogan, noto e controverso podcaster, invita l’ascoltatore a sfruttare un sussidio finanziario a cui i cittadini statunitensi avrebbero diritto, ma di cui sono stati tenuti all’oscuro da parte dei poteri forti.

Su X (ex-Twitter) un link pubblicitario conduce al finto articolo di una nota testata italiana dove “Matteo Salvini”, in un’intervista a “Bruno Vespa”, dichiara di voler restituire agli italiani il modo da lui scoperto per poter guadagnare di più.

Tutte, chiaramente, truffe. Ma truffe moderne, sempre più credibili, dirette a un pubblico nuovo e utilizzanti nuove tecniche, prime fra tutte quelle dei modelli di intelligenza generativa.

Large Language Models e il loro ruolo nel nuovo rapporto fra truffe utilizzanti intelligenza artificiale

I modelli di linguaggio come ChatGPT consentono, fra le altre cose, di elaborare enormi quantità di testo in poco tempo, e di rilavorare su un testo per modificarne la struttura. Ed è proprio per via della capacità degli LLM di “scrivere” testi anche complessi che la loro adozione nel mondo dello scamming risulta così proficua. E ancora più affascinante, come permetta ai male intenzionati di creare elaborate fake news per dare valore alla propria truffa.

Si prenda ad esempio uno screenshot del seguente “articolo”, trovato navigando su X, una truffa vera e propria contenuta, come prima citato, in un sito internet che si spaccia nella veste grafica per il quotidiano “La Repubblica”.

truffe utilizzanti intelligenza artificiale, modelli di linguaggio, llm, truffe, frode,
Screenshot di un sito che, spacciandosi per “La Repubblica”, propone un finto articolo su un’altrettanto finta intervista fra il ministro Salvini e Bruno Vespa, nel tentativo di pubblicizzare un’app truffaldina di criptovalute

l’uso di Intelligenza Artificiale nel contesto della truffa ha qui una doppia funzione: in primo luogo, anche se non si può affermare con certezza, l’articolo per intero appare essere stato scritto usando un modello di linguaggio. Lo possiamo notare da una serie di “indizi”: la lunghezza e complessità del testo (troppo elaborata per una comune truffa online), determinati modismi nella conversazione fra i due personaggi, e la caratteristica tipica dei modelli generativi di linguaggio quando usati per scrivere in Italiano, di confondere il genere dei parlanti.

Ma non solo: l’Intelligenza artificiale è qua anche al centro della truffa stessa, venduta come tecnologia segreta dalle qualità semi-mistiche in grado di individuare e compiere automaticamente i migliori investimenti all’interno dell’applicazione senza bisogno di sapere alcunché del mondo dello stock market. 

Una truffa che si orienta a un pubblico nuovo allora, quello crescente degli indignati e insoddisfatti, a cui viene proposta la possibilità di uscire dalla condizione di semi-povertà per raggiungere “il segreto alla ricchezza”.

Volti di celebrità usati nel campo delle truffe

Torniamo ora a “Julia Roberts”, o meglio, al suo deepfake. Si è discusso precedentemente su Ultima Voce della questione spinosa dei diritti di immagine di attori e VIP nella generazione di video e immagini utilizzanti il loro volto a livello industriale. Nel campo delle truffe, essendo già di per sé ai margini della legalità (se non ben oltre), le già labili norme del buonsenso vengono gettate, al punto tale da considerare tutti gli esempi forniti all’interno di questo articolo come tacciabili di denuncia per diffamazione.



Il simulacro dell’attrice discute infatti di una presunta disfunzione erettile del marito, guarita attraverso un rituale tibetano segreto tenuto nascosto dalle grandi aziende farmaceutiche.

Ed ecco che nella truffa si mischiano le nuove tecnologie a un grande classico del mondo delle frodi, specialmente nell’ambiente digitale: la vergogna. Le truffe a sfondo sessuale sono da sempre uno dei principali approdi per persone suscettibili, per via proprio del sentimento di vergogna provato da chi ne cade vittima, disincentivando la sua volontà di discuterne in seguito.

In ciò, l’utilizzo di modelli di generazione di immagine e di deepfake aiuta ad attribuire all’inganno una maggior veridicità. Coincide, insomma, con la maggior alfabetizzazione digitale che contraddistingue il mondo contemporaneo, e compie il salto da quelle pubblicità che tutti conosciamo su come ingrandire certe parti del corpo per muoversi su canali più pubblici, come ad esempio quello dei social media.

Il complottismo e la sua utilità nel mondo delle truffe utilizzanti intelligenza artificiale

La mentalità del complotto gioca un importante ruolo per un truffatore – per così dire – furbo. Il complottista è infatti il bersaglio ideale, appartenendo solitamente a un ceto sociale facilmente suscettibile a prospettive di guadagno ulteriore e possedendo un livello di educazione in media più basso.

Soprattutto, lo scetticismo iperbolico del complottista lo porta a informarsi su fonti diverse da quelle solitamente accettate come reputabili, e solitamente molto meno vagliate per quanto concerne le inserzioni pubblicitarie. Esempio lampante, i social media.

I Network come Facebook sono infatti proliferanti di gruppi e associazioni complottistiche, a cui piace definirsi come di “libera informazione”, solitamente a numero chiuso e dove è necessaria l’accettazione degli amministratori per poter prendere parte alla discussione. Lo stesso è valido per YouTube e X, dove sedicenti liberi pensatori vendono le proprie idee e si sponsorizzano nel farlo.

Non sorprende allora che pubblicità di questo tipo circolino pressoché esclusivamente per i Social Media, miranti attraverso l’algoritmo di selezione del contenuto a puntare proprio agli utenti di quelle “camere dell’eco”.

infatti, consideriamo in ultima parte il video prima citato dei sussidi di Stato, dove la simulazione della voce incorporea di Joe Rogan, noto podcaster e intervistatore di personalità anche notevolmente controverse, invita i cittadini degli USA ad appropriarsi di un fantomatico sussidio di 6.400 dollari di cui però lo Stato non vuole si venga a conoscenza, e la cui scadenza sarebbe a brevissimo.

Nei tre casi citati (prendendo, si assicura, a caso fra le centinaia di esempi reperibili) uno dei punti di cardine è sempre lo stesso, ossia che il segreto a una vita migliore non solo è facilmente raggiungibile da tutti, ma soprattutto viene tenuto nascosto da un manipolo di potenti “loro” senza scrupoli.

Si invita dunque a riflettere sulle coincidenze e su come l’utilizzo male intenzionato della tecnologia, specie dei modelli generativi, è capace attraverso anche lo sfruttamento dei dati personali, a mirare a individui suscettibili della nostra società, le cui possibilità di ascolto e recupero sembrano sempre più lontane.

Roberto Pedotti

Exit mobile version