Sora: intelligenza artificiale e il futuro dell’informazione

OpenAI ha da poco annunciato Sora, un modello generativo capace di generare video realistici partendo da un input testuale. Ma quale futuro ha il mondo dell'informazione, ora che creare video e immagini fotorealistiche diventa sempre più facile?

sora, intelligenza artificiale, openai, IA, informazione

OpenAI, la compagnia dietro il modello di linguaggio ChatGPT e il generatore di immagini DALL-E ha da poco annunciato il suo nuovo prodotto, Sora. Il modello di intelligenza artificiale è in grado di creare video realistici partendo da un semplice input testuale, superando uno dei limiti storici dei modelli di intelligenza generativa. In un mondo dove la diffusione di fake news e di informazione sempre più confusa, qual è il futuro delle intelligenze generative nel mercato dell’editoria giornalistica e dell’informazione?

Sora AI: la nuova creazione di OpenAI e il futuro dell’informazione – Fidarsi delle notizie, al giorno d’oggi, è difficile. Lo sa chi legge queste parole, lo sa chi scrive per un qualunque media. Orientarsi nel marasma dell’informazione contemporanea è diventato una sfida ardua, non potendo più basarci sulle precedenti convinzioni che ci permettevano precedentemente di riconoscere con facilità quando una notizia, un video, un’immagine, ci permettevano di dare a ciò che ci veniva detto, possedeva anche solo una frazione di veridicità.

Un tempo, il fotoreport di un’inchiesta ci dava la prova che qualcosa fosse davvero accaduto. Poi abbiamo cominciato a notare quando (e quanto) venivano usati programmi di editing, a riconoscere immagini modificate. E, qualche anno fa, abbiamo cominciato a guardare ossessivamente le mani rappresentate nelle fotografie, per capire se fossero state create da un modello di intelligenza generativa.

Sappiamo riconoscere un deepfake per via delle sfocature intorno al volto, una voce replicata per via della sua meccanicità. Ma l’asticella si sta alzando, e rapidamente, in maniera vertiginosa. Stare al passo con le nuove tecnologie e con le loro capacità di falsificare, inventare, ricreare sta diventando affare complicato, un compito per fact-checker già sommersi di lavoro all’interno del maremagnum dell’informazione.

Non sorprende allora che Sora, il nuovo strumento sviluppato da OpenAI per risolvere uno dei limiti dei modelli generativi, ossia quello di creare sequenze coerenti di immagini, presenti nuove problematiche per il mondo dell’informazione in campo digitale.

Sora e le potenzialità del nuovo modello di OpenAI

La creazione di video fotorealistici per modelli generativi di immagini è stato, fino all’anno scorso, uno dei limiti delle intelligenze artificiali. Notoriamente, il problema principale derivava da un’assenza di coerenza frame by frame. 

Senza addentrarci in tecnicismi, quando si tentava di creare un filmato attraverso tali tecnologie, si finiva quasi sempre con il creare inquietanti prodotti, dove le immagini scorrevano e si trasformavano continuamente. I risultati avevano di sicuro un certo charme, e sono infatti stati implementati in vari video musicali o in rappresentazioni artistiche (giusto per citare un esempio, il video musicale di Iron Lung della band King Gizzard and the Lizard Wizard). Era però impossibile creare un video che potesse passare come “vero”.

La presentazione, il 17 febbraio 2024, di Sora da parte del gigante tech OpenAI presenta invece dei video di esempio dove uno spettatore non attento potrebbe benissimo scambiare per film, immagini di reportage, video quotidianamente pubblicati sui social media.



Come si potrà notare facendo attenzione al video proposto, ci sono ancora elementi dove anche un modello specializzato come Sora ha problemi: persone scompaiono nello sfondo, parti del corpo non si muovono come dovrebbero, ma il balzo in qualità che la generazione di video ha avuto nel corso di un singolo anno è straordinario. E inquietante.

Conseguenze e considerazioni per il futuro dell’intelligenza artificiale nel campo dell’informazione

Il mondo in cui ci troviamo è complesso. La realtà degli ultimi conflitti ha reso piuttosto evidente un aspetto cruciale della società quotidiana, quello di un’informazione mai del tutto imparziale. Dove in Italia e nel mondo  media ed emittenti diverse assumono il ruolo di protettrici ora di questa e ora di quella fazione all’interno di conflitti e guerre (come per ciò che sta accadendo per quanto concerne il genocidio dela popolazione palestinese), la possibilità del cittadino medio di ottenere una qualunque informazione oggettiva diventa uno sforzo ostico, quando non impossibile.

Per questo i lettori interessati, o per lo meno digitalmente competenti, sanno che esistono prove “più veritiere di altre”, meno in grado di essere rimaneggiate e modificate per sorreggere la narrativa che si vuole far passare. Una foto ha un valore maggiore di un post, e un video di un evento capace di catturare gli eventi presentati è solitamente l’elemento schiacciante nel mondo dei social media, capace di spezzare carriere e di causare conflitti.

Ed è per questo che una tecnologia i cui balzi evolutivi sono così repentini e veloci dovrebbe, quantomeno, alzare dei segnali di allarme sul bisogno di una maggiore regolamentazione a livello governativo: immagini create da IA sono già state usate per quanto riguarda sia la guerra in Ucraina che nell’attuale situazione in Palestina, impiegate in maniera malevola per giustificare le proprie posizioni, come ha dimostrato l’utilizzo da parte del noto e controverso rappresentante di una branca ideologica della destra statunitense Ben Shapiro, il quale ha pubblicato su un’immagine creata da IA rappresentante i resti di un bambino carbonizzato così da poter motivare le sue affermazioni relativamente al popolo palestinese.

OpenAI ha già affermato di stare lavorando, nello sviluppo del suo nuovo modello, con associazioni di fact-checking ed esperti di informazione per poter contenere gli effetti dannosi conseguenti alla diffusione al pubblico del modello. Ma, come si è già precedentemente detto (più volte) una semplice fiducia nella capacità nei confronti delle compagnie e della loro capacità di auto-regolarsi non solo non è prospettabile, ma nemmeno già più sufficiente.

Roberto Pedotti

 

Exit mobile version