Fra le miriadi di tecnologie collegate al vasto mondo delle Intelligenze Artificiali, poche sono inquietanti e tristemente note come quelle di Deepfaking, modelli generativi capaci di sostituire il volto di pressoché chiunque con qualunque persona o cosa lo si desideri nell’arco di pochi minuti. Ma il caso della diffusione su X di immagini hard create da IA e raffiguranti la cantante Taylor Swift ha rinnovato il discorso sulla nostra privacy, e ai sinceri e reali pericoli legati alla mancanza di vera e propria legislatura intorno a tali tecnologie.
Intelligenza artificiale e privacy: Il caso di Taylor Swift e delle immagini deepfake – È una triste realtà quella per cui uno dei primi esempi di intelligenza artificiale resosi noto al mondo, poco più di cinque anni fa, fu proprio quello dell’appropriazione di volti attraverso le – ai tempi nuovissime – tecnologie di Deep Learning.
Dove per ogni altro esempio di modello generativo è infatti possibile pensare tanto agli effetti positivi quanto a quelli negativi di un loro utilizzo (Possiamo pensare ChatGPT sia la morte della scrittura o la sua rivoluzione, che un modello di ricognizione biometrico sia un nuovo ostacolo alla sicurezza personale o un altro nuovo utilissimo sistema di prevenzione del crimine), il deepfake ha davvero poche implementazioni non inquietanti o che giustifichino la sua esistenza. Il termine stesso nasce per descrivere una tipologia di video o di immagine pornografica dove al corpo di un’attrice o attore è sovraimposto, attraverso fotomontaggio, il volto di qualcun altro, usando i processi di rete neurale e machine learning definiti di “apprendimento profondo” (Deep Learning).
Così, per gli ultimi anni, fra piccoli scandali e sporadiche apparizioni sui notiziari in casi sempre più inquietanti, fra cui, giusto per citarne uno, l’adozione di modelli facciali per diffamazione e propaganda politica, il deepfake ha vissuto in zone grigie di legalità. Fino, almeno, ad ora. L’invasione di X (ex-Twitter) di immagini hard create da IA raffiguranti Taylor Swift ha portato a una ri-emergenza del discorso sui pericoli all’immagine e alle questioni legati a Intelligenza Artificiale e privacy
Taylor Swift e le immagini su X, un caso esemplare di abuso di Intelligenza Artificiale e di cultura virale nel digitale
Negli scorsi giorni, una dozzina di immagini esplicite, raffiguranti la cantante Taylor Swift, hanno esondato online, seguendo un ordine di diffusione ormai piuttosto comune: prima sul porto di mare di contenuti (legali e non) che è Telegram, seguito da X, unico social media ad ampia diffusione la cui policy permette la riproduzione di contenuto esplicito, dove è diventato virale. Diversi giornali segnalano che della dozzina di immagini postate, una ha ottenuto specificamente 47 milioni di visualizzazioni.
Concentriamoci un attimo sul numero. 47 milioni di visualizzazioni per una singola, falsa, immagine, ripresa, condivisa, riproposta. Nell’era dei Big Data e dei grandi numeri, dove il video virale raggiunge i milioni su base quotidiana, c’è una certa abitudine a lasciare certi numeri in un aleatorio “molto grande”. Ricontestualizziamolo: un numero di persone pari a quasi l’intera popolazione della Spagna ha visto del contenuto rappresentante quello che la policy di X definisce come NCN, Non Consensual Nude, falsificato, di una persona. Fra loro, è possibile solo immaginare quanta gente non sappia nemmeno dell’esistenza dei deepfake.
Si tratta di uno di quei casi in cui le varie tendenze caratteristiche della rete creano un circolo vizioso di disinformazione, abuso della privacy, e infinita riproposizione mediatica di contenuti capaci potenzialmente di distruggere la vita di una persona. In questo caso, la reazione di X è stata immediata, cancellando immediatamente le immagini ed impedendo un’ulteriore diffusione virale delle immagini attraverso un blocco completo di qualunque ricerca sulla piattaforma legata a Taylor Swift.
Posting Non-Consensual Nudity (NCN) images is strictly prohibited on X and we have a zero-tolerance policy towards such content. Our teams are actively removing all identified images and taking appropriate actions against the accounts responsible for posting them. We're closely…
— Safety (@Safety) January 26, 2024
Intelligenza Artificiale e privacy: Una questione di sessismo
Fra i commenti più comuni all’accaduto, alcuni manifestano un disinteresse complessivo alla situazione: trattandosi di falsi, l’importanza di una circolazione pervasiva di materiale del genere viene complessivamente depotenziata.
Si tratta però di un argomento sensibile sotto più livelli: in primo luogo, la maggioranza assoluta dei prodotti creati attraverso tecnologie di Deepfaking è di natura pornografica. Secondo statistiche, circa il 90% dei deepfake complessivi. Di esso, una gigantesca porzione riguarda persone famose, per via del molto semplice fatto che, come ogni intelligenza generativa, più materiale viene dato in pasto all’Intelligenza Artificiale, migliore sarà il risultato ottenuto. Non è inoltre necessario specificare che queste dinamiche tocchino quasi esclusivamente VIP di sesso femminile.
I deepfake si inseriscono inoltre in una cultura di voyeurismo già ben insediata all’interno dell’ambiente digitale, quella della leak culture, che generò scalpore nel 2014/2015 quando alcune celebrità del mondo hollywoodiano furono vittime di attacchi hacker ai loro smartphone, e vedendo foto private pubblicate ovunque online, in un leak chiamato, con non poco ribrezzo, The Fappening (portmanteau di “the happening” ossia l’evento e “fap”, termine gergale per indicare la masturbazione).
Sarebbe, come solito, facile attribuire certe tendenze esclusivamente all’ambiente digitale, il quale facilita la deresponsabilizzazione dell’utenza nel visualizzare, condividere e riproporre materiale non pensato per essere pubblico. La verità però è che tali tendenze all’interno della nostra società vedono continuazioni dai tempi dei giornali di gossip e della piaga dei paparazzi, intenti a fotografare attori e persone famose nella loro vita quotidiana, nei momenti di relax, quando non nella loro intimità.
Commenti del genere dunque non considerano l’elemento umano della vicenda: il VIP viene reso “meno che” una persona, iconicizzato, e in quanto tale la possibilità di inserire le sue sembianze dove si voglia è percepita come “più accettabile”. Si manca di fare il passaggio empatico per cui la diffusione di immagini pornografiche, vere o false che siano, se non toccasse Taylor Swift ma un’amica, una compagna, un membro della propria famiglia, sarebbe un atto di assoluta illegalità e immoralità capace di rovinare la vita di un individuo.
Intelligenza Artificiale e privacy: una questione di classe
E infatti, il rilascio di immagini Hard falsificate attraverso Deepfaking non è un qualche tipo di insospettata novità uscita di punto in bianco, ma ha già intaccato la vita di diverse persone: Nel febbraio 2023 lo streamer Atrioc aveva accidentalmente mostrato al suo pubblico di stare guardando su uno dei suoi secondi schermi video deepfake di sue colleghe (anche in questo caso, si chiede di fare lo sforzo empatico di mettersi nei panni di una persona che collabora con il suddetto streamer, sapendo che lui non solo visualizza video dove il suo volto è stato preso e reinserito in un video hard, ma inoltre che tiene la pagina aperta durante le sue dirette)
Ancora più disturbante, nell’ottobre dello scorso anno Francesca Mani, una studentessa di 14 anni in Westfield aveva affermato su CNN di aver scoperto che alcune immagini di NCN ottenute attraverso l’impiego di intelligenza artificiale erano circolate liberamente per il suo liceo, lamentandosi della difficoltà da parte delle forze dell’ordine di poter agire in qualunque modo, non esistendo una legislazione univoca sull’argomento. Nonostante una richiesta della CNN di commento dalla Casa Bianca, non è stata data risposta.
Si tratta di due casi fra dozzine, esempi piuttosto funzionali per presentare un fenomeno che non tocca soltanto le aliene e intoccabili celebrità di un pantheon deumanizzato di ultramilionari, ma persone comuni,
Fa dunque riflettere che, dopo cinque anni di spinte e pressioni, sia stato proprio questo evento a smuovere il governo federale statunitense e commentare sulla situazione, definendola come “allarmante“. Il problema del danno a una figura pubblica di enorme rilievo come Taylor Swift diventa icona di una richiesta di una maggiore attenzione a livello legale verso tematiche pressanti ma precedentemente ignorate.
Un doppio statuto allora, quello degli iper-ricchi e iper-famosi, considerati da un lato pubblico essenzialmente come figure verso cui il riguardo umano è percepito – almeno parzialmente – come facoltativo, e allo stesso tempo coloro che smuovono le acque, anche indirettamente (Swift non ha infatti in alcun modo commentato la situazione) per quanto riguarda problemi che altrimenti restano considerati minori dalle istituzioni.
Intelligenza artificiale e privacy: una questione di educazione, di sensibilità, e di legislazione
L’adozione delle intelligenze generative è, sotto molti aspetti, una nuova forma di alfabetizzazione al digitale: l’utenza si suddivide in persone che conoscono, a larghe linee, il potenziale dei modelli generativi ed è in grado di sapere quando essi vengono utilizzati, chi invece è a conoscenza lata della loro esistenza ma non delle loro capacità, e infine chi non sa affatto di cosa sia attualmente un’IA.
La sostanziale confusione relativa a quanto determinati tipi di tecnologie siano accessibili a tutti è fra le principali motivazioni dietro agli atteggiamenti di laissez-faire a livello istituzionale su questo tipo di argomenti, lasciando ad esempio che siano le compagnie come Twitter o Instagram, decisamente più orientate e competenti, a gestire la situazione.
Ma la realtà è che i modelli generativi, almeno a livello di utilizzo superficiale, sono estremamente accessibili a chiunque. Senza fare terrorismo mediatico, è necessario tenere a mente che la circolazione di immagini di nudo di persone online è un atto di violenza sessuale, specie se all’interno di un contesto in cui, come si è precisato precedentemente, non tutti sono in grado di riconoscere la differenza fra un’immagine falsificata o meno.
Roberto Pedotti