L’intelligenza artificiale (IA) sta rapidamente avanzando e, sebbene le sue potenzialità siano notevoli, emergono preoccupazioni riguardo agli sviluppi che potrebbero comportare rischi per la sicurezza globale. In un recente rapporto internazionale sulla sicurezza dell’IA, un gruppo di esperti ha sollevato dubbi sul fatto che i progressi di DeepSeek, una startup cinese emergente, potrebbero aumentare questi pericoli, con implicazioni che vanno dalla creazione di armi biologiche alla pianificazione di attacchi informatici. Yoshua Bengio, uno dei pionieri dell’IA, ha messo in guardia sulle possibili conseguenze di questi sviluppi, suggerendo che la crescente competizione tra le aziende, con DeepSeek come principale sfidante di OpenAI, potrebbe compromettere la sicurezza.
I progressi di DeepSeek: un potenziale aumento del rischio
Il rapporto, che coinvolge 96 esperti, tra cui il vincitore del premio Nobel Geoffrey Hinton, ha analizzato i progressi recenti nel campo dell’IA, concentrandosi in particolare sui sistemi a scopo generale come i chatbot.
Sebbene l’IA sia utilizzata in modo benefico in molti settori, come la medicina, i progressi di DeepSeek potrebbero segnare un cambiamento pericoloso. Secondo Bengio, la competizione tra le aziende potrebbe portare a una corsa all’innovazione senza prendere in considerazione sufficientemente i rischi per la sicurezza. “Se due entità si sfidano e pensano di essere sullo stesso livello, saranno costrette ad accelerare, e questo potrebbe portare a trascurare la sicurezza”, ha affermato Bengio.
I progressi di DeepSeek non riguardano solo l’avanzamento delle capacità tecniche, ma anche l’approfondimento di modelli che potrebbero essere utilizzati per scopi malintenzionati. La creazione di istruzioni dettagliate per produrre agenti patogeni e tossine è una delle preoccupazioni sollevate nel rapporto, in cui si evidenzia che l’IA potrebbe essere utilizzata anche da persone senza formazione specialistica per realizzare attacchi biologici.
Sebbene non ci sia certezza su quanto siano accessibili questi strumenti per i non esperti, la tendenza è chiara: l’intelligenza artificiale sta diventando sempre più facile da usare, abbassando la barriera per potenziali usi pericolosi.
AI come strumento di attacco
Uno degli aspetti più preoccupanti dei progressi di DeepSeek riguarda la capacità crescente dell’IA di eseguire attacchi autonomi, come nel caso della scoperta automatica di vulnerabilità software.
Secondo il rapporto, l’IA è diventata più abile nell’identificare difetti nei sistemi informatici senza l’intervento umano, rendendo più facili gli attacchi informatici. Tuttavia, per quanto riguarda l’esecuzione di attacchi reali, gli esperti sono concordi nel dire che l’IA è ancora lontana dal raggiungere una precisione tale da essere completamente autonoma in questi compiti.
Un altro rischio legato ai progressi di DeepSeek è l’uso di deepfake, la tecnologia che permette di creare immagini e video falsificati di persone, spesso utilizzati per truffe e ricatti. L’aumento di contenuti deepfake è stato significativo negli ultimi anni, e l’IA ha reso questo tipo di truffa più difficile da rilevare.
Il futuro dell’IA e l’incertezza dei rischi legati a DeepSeek
I progressi di DeepSeek rappresentano anche una sfida per il futuro del lavoro e per l’equilibrio geopolitico. Le capacità di ragionamento avanzato, come quelle dimostrate dal nuovo modello o3 di OpenAI, potrebbero portare a cambiamenti radicali nel mercato del lavoro, creando agenti autonomi capaci di svolgere compiti umani.
Sebbene ciò possa comportare benefici, come l’assistenza nella risoluzione di problemi complessi, aumenta anche i rischi legati all’uso malintenzionato di queste tecnologie.
Il rapporto ribadisce che l’incertezza che circonda l’IA è ancora evidente, e che le decisioni che verranno prese dai governi e dalle società nel prossimo futuro potrebbero determinare se l’evoluzione dell’IA porterà a risultati positivi o negativi. In questo contesto, i progressi di DeepSeek non solo evidenziano la crescente competitività tra le potenze mondiali, ma anche la necessità di regole e misure più rigorose per prevenire il rischio di usi dannosi dell’IA.
Mentre i progressi di DeepSeek continuano a far parlare di sé, diventa sempre più chiaro che la sicurezza, l’etica e la vigilanza devono essere prioritari in un’era in cui l’intelligenza artificiale ha un ruolo sempre più centrale.
Elena Caccioppoli