Fra gli ultimi trend di TikTok è comparso l’#AITrueCrime, dove, usando modelli generativi di immagini e sintetizzatori vocali, si fa “parlare in prima persona” le vittime di casi di cronaca. La questione apre discussioni sul generational divide, e su come le attuali generazioni si informino.
AI, TikTok e True Crime – Quando si parla di social media, nessuno ormai appare sorpreso quando appare una nuova questione sulla discutibilità etica di alcuni nuovi trend. Ultimo fra questi, nato negli Stati Uniti ma giunto da poco in Italia, è la scelta da parte di un gruppo di content creator su TikTok di usare le tecnologie di intelligenza artificiale per ricreare e animare i volti di vittime di casi di cronaca, spesso nera, e di farli parlare “in prima persona” delle violenze subite.
Un nuovo tentativo di mimesi del reale dunque, dove la vittima parla direttamente al pubblico presentando gli eventi attraverso “i suoi occhi”, come un fantasma che guarda gli eventi dall’alto. Yara Gambirasio parla del suo omicidio, Charlotte Dawkins apre il video spiegando di come il compagno di sua madre le abbia rotto le costole, Wang Shang Kun discute di come abbia venduto un rene per comprare un iPhone e sia successivamente morto. L’utilizzo della prima persona come sistema di narrazione, insieme a commenti di storia veramente vissuta e all’uso di sintetizzatori vocali per ricreare la voce delle vittime, pare volto ad accendere l’empatia del pubblico per generare visualizzazioni.
Usare l’AI per “animare i morti”. Informazione o morbosità?
A essere usate per questo processo sono varie app di intelligenza artificiale del tutto gratuite. Anche i dialoghi sono a volte generati da ChatGPT. Un processo che diventa allora del tutto automatizzato e volto a massimizzare la produzione di contenuti, al fine di avere sempre più visualizzazioni con il minimo sforzo possibile.
L’informazione diventa allora parte di una filiera di produzione, dove comunque all’utente sono fornite informazioni – seppur non sempre – attendibili, per quanto romanticizzate e fortemente sintetiche al fine di accomodare il format di TikTok. Eppure, la problematica etica di “far parlare i morti” non può che scomodarci, e portare a chiederci come i formati imposti dai social media ci conducano non solo a modalità tutte nostre di informarci, ma anche di pensare.
Indignazione, regolamentazione, e come aggirarla usando (ancora) l’AI
L’ articolo scritto da Rolling Stone commenta aspramente il nuovo trend definendolo un “incubo ad occhi aperti”, facendo notare come il trend sia nato nonostante nel marzo di quest’anno TikTok abbia aggiornato le sue linee guida per proibire esplicitamente qualunque contenuto dove vengano replicate le fattezze di individui privati.
La reazione da parte dei creatori di contenuti non è stata di arrestarsi, ma di aggiungere un ulteriore strato di automatizzazione, non utilizzando più direttamente foto delle vittime, ma fornendo invece in pasto ai processori di immagini input con la loro descrizione, così da creare fotografie o illustrazioni (più o meno) somiglianti, ma non fedeli alla realtà. Viene da chiedersi se cambi qualcosa, o se a far sì che Sarah Scazzi presenti se stessa e il suo omicidio attraverso il volto di un’altra persona generato da intelligenza artificiale non sia, in un certo modo, anche peggio.
@falco_1970_♬ suono originale – FALCO TEAM FOSSA DEI LEONI 🦁
A ciascuna generazione il suo social e il suo sistema di informazione
“True Crime” è un termine che circola da relativamente poco tempo, ma che ha sempre avuto grande successo anche prima che avesse una definizione a sé stante: da show televisivi, a podcast, e infine a corti sui social media, i casi di cronaca nera esercitano chiaramente sulla nostra società un fascino non obbligatoriamente macabro o criticabile, almeno finché determinati vincoli etici vengono mantenuti. Si potrebbe argomentare che la recitazione da parte di un’attrice di Anna Frank per un film ispirato alla sua storia non sia poi troppo differente dai casi prima menzionati, ma appare evidente la differenza fra i due prodotti. Allora perché su TikTok questi vincoli appaiono più latenti?
Fra le cause può esservi l’età media più bassa della base di utenza, o fatalisticamente si può dichiarare una degenerazione dello spirito dei tempi, ma la verità, forse più inquietante, è che molta responsabilità lo ha il formato del social media stesso.
TikTok estremizza le tendenze alla polarizzazione delle opinioni già presenti su altri network, attraverso l’accesso a contenuti veloci, dimenticabili, e dove la lunghezza dei commenti non può superare i centocinquanta caratteri. Si tratta di due elementi che, insieme, formano una combinazione esplosiva: al fine di creare interazione capace di attrarre lo spettatore, il content creator trova una rapida soluzione nella diffusione di contenuti volti ad ottenere una reazione emotiva, e dall’altro lato il pubblico non può che esprimersi emotivamente, avendo a disposizione uno spazio ridotto per comunicare.
Tenere in conto i bisogni delle nuove generazioni
L’utilizzo dell’AI si fa allora solo l’ultimo tassello di una catena di produzione che trova la sua ragione (anche) nel medium stesso che ne favorisce il consumo.
E’ ormai risaputo che l’accesso incondizionato ai social media e ai contenuti di brevissima durata può avere e spesso ha un impatto sullo sviluppo dell’attenzione da parte di chi li utilizza. Se dunque la sola forma di un video può nel lungo terminare condizionare la nostra capacità di mantenere la concentrazione, vi sono solide basi per affermare che anche il contenuto abbia un impatto sulla nostra percezione dell’etica di determinati atti.
In uno stato come quello italiano dove, per esperienza personale di docente, l’elemento scolastico è pedagogico è del tutto abbandonato a se stesso, il rifugio da parte dei giovanissimi in luoghi virtuali consoni, comprensivi, e capaci di parlare il loro linguaggio, risulta del tutto comprensibile, come comprensibili sono i rischi di un simile spazio.
Comments 1