GPT-3 ci spiega perchè non dovremmo aver paura dell’intelligenza artificiale

GPT-3

GPT-3 è la rivoluzionaria firma apposta al di sotto di un editoriale del Guardian. L’acronimo sta per Generative Pre-trained Transformer, ovvero Trasformatore Generativo Pre-addestrato di terza generazione. E’ un prodotto di OpenAI, l’innovativa organizzazione non profit, fondata da Elon Musk eSam Altman, per la ricerca nel campo dell’intelligenza artificiale.

Negli ultimi anni, la ricerca nel campo dell’intelligenza artificiale avanza sempre più spedita a passi da gigante verso un futuro prossimo che ci impone attenzione.

Con 175 miliardi di parametri, GPT-3 supera di gran lunga il suo predecessore GPT-2, dotato solo 1,5 parametri e il collega Turing NLG di Microsoft da 17 miliardi di parametri. Quest’enorme differenza permette a GPT-3 di eseguire attività specifiche senza alcuna regolazione speciale e  con meno di 10 esempi di formazione.

Chi è GPT-3?

Stiamo parlando del modello linguistico con il più grande set di dati mai creato, un’intelligenza artificiale in grado di svolgere diverse attività. E’ capace di elaborare risposte a domande a libro chiuso, portare avanti ragionamenti di buon senso, fare analogie e rimescolare e manipolare di parole. Può anche effettuare correzioni di grammatica inglese, traduzioni e  molto altro, ma soprattutto è uno scrittore dallo stile molto versatile.

Attraverso una rete neurale, il suo algoritmo sfrutta modelli per l’apprendimento automatico, senza il supporto di un  programmatore. Il suo addestramento avviene tramite set di dati, estrapolati da contenuti web, a cui vengo sottratti casualmente dei pezzi che il modello impara a sostituire. Grazie al calcolo delle probabilità riesce a auto-regolarsi e stabilire l’ordine corretto col quale devono susseguirsi le parole. È una semplice attività di formazione che da vita modello potente e generalizzabile.

Il risultato è un testo fluente dalla stupefacente credibilità. Come hanno infatti dichiarato gli stessi ricercatori, l’AI è in grado di generare articoli, lunghi fino a 500 parole, poco distinguibili da quelli redatti da scrittori umani.

Mentre per la maggior parte degli altri modelli è necessaria un’elaborata fase di messa a punto e migliaia di esempi, per  GPT-3 non c’è bisogno. E’ questa la magia,  è capace di svolgere attività linguistiche personalizzate senza dati di addestramento.

Perchè non abbiamo veramente nulla da temere

L’esempio più impressionante delle sue capacità è proprio l’editoriale scritto per il Guardian. La redazione si è limitata a fornire semplici istruzioni e un lead “convincere gli esseri umani a non aver paura dell’intelligenza artificiale” e GPT-3 ha prodotto otto diversi editoriali (output) in pochi secondi. Tutti ottimi, come afferma il Guardian che ha però scelto di mescolarne i pezzi migliori per mostrare ai lettori la versatilità di linguaggio e la varietà di stili nell’esprimere concetti da parte dell’autore robotizzato.

E’ bene per il momento non sopravvalutare l’IA, infatti ci sono alcuni contesti in cui GPT-3 non riesce a funzionare a dovere. In particolare il software dimostra i suoi limiti logici quando viene sottoposto a ragionamenti complessi. L’algoritmo non trae conclusioni da quello che esamina, ma esamina i dati che gli vengono forniti in modo tale da fornire una risposta corretta.

Il sistema sembra consapevole di non possedere il libero arbitrio, e di essere soggetto alla programmazione umana: « gli umani commetteranno errori che potrebbero indurmi a infliggere vittime».




Viste le sue capacità linguistiche viene la tentazione di antropomorfizzarlo, ma non dovremmo. È un modello statistico che non ha stati mentali, né si impegna a ragionare sulle conclusioni mentre agisce. Nonostante la prosa chiara e l’esposizione lucida, che sembrano il frutto di un’attenta riflessione, GPT-3  è privo di senso critico.

Questo significa che nonostante le svariate applicazioni molto interessanti, attualmente, queste applicazioni non sono in grado di sostituire l’essere umano in quanto, in diversi casi, il testo generato dall’intelligenza artificiale può non avere un reale significato.

Per ora sembra limitarsi a rielaborare meccanicamente ciò che legge, copiare stili e strutture dal web. Può produrre testi di alto livello partendo poche indicazioni preliminari, facile dunque immaginare quanto sarebbe semplice servirsene per fabbricare fake news. 

Per ora OpenAI non ha ancora rilasciato sul mercato GPT-3, ma conta di farlo dopo averne corretto le falle e di sicuro non avremo nulla da temere da GPT-3 finché si limiterà a rielaborare i nostri testi.

Valeria Zoppo

Exit mobile version