Skip to main content
European Commission logo print header

Article Category

Contenuto archiviato il 2023-04-12

Article available in the following languages:

Tendenze scientifiche: Intelligenza artificiale, una maledizione o una benedizione? L'appello degli esperti per affrontare le minacce alla sicurezza

Gli esperti avvertono che l'intelligenza artificiale (IA) potrebbe essere sfruttata da «Stati canaglia», terroristi e criminali, a meno che l'umanità non si prepari meglio a difendersi da un suo potenziale uso malevolo.

Economia digitale icon Economia digitale

Le paure nei confronti dell'intelligenza delle macchine sono un ingrediente di base della fantascienza da decenni, con innumerevoli descrizioni del potere autodistruttivo dell'umanità. Tuttavia, l'avvento dell'IA ha dato vita a narrazioni opposte nel pubblico che si incentrano, a seconda del punto di vista di ciascuno, sull'aspetto di promessa o di minaccia. Anche se a livello concettuale esistono dagli anni 50, l'IA e le tecnologie di apprendimento delle macchine hanno preso slancio solo di recente. Ma grazie al loro rapido sviluppo, oggi sono usate in varie applicazioni: dal riconoscimento vocale automatico alla traduzione automatica, dai motori di ricerca agli assistenti digitali, dai droni ai veicoli senza conducente. Con le potenzialità di progressi rivoluzionari in settori quali l'assistenza sanitaria, l'agricoltura, l'istruzione e i trasporti, l'uso di tali sistemi è visto come un beneficio, perché può migliorare attivamente la vita delle persone e promuovere cambiamenti positivi nel mondo. Ad esempio, l'IA svolge già un ruolo importante nelle pratiche quotidiane di acquisizione, trattamento e interpretazione delle immagini mediche. Tuttavia, un coro crescente di esperti, tra cui il fisico Stephen Hawking e l'imprenditore Elon Musk, continua a evidenziare l'esigenza di prepararsi ai potenziali rischi (ed evitarli) posti dall'IA. Un nuovo studio, «The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation», presentato da un gruppo di ricercatori di diverse università, think tank e organizzazioni senza scopo di lucro, richiama preoccupazioni simili, sottolineando le potenziali minacce alla sicurezza se l'IA finisse nelle mani sbagliate, in particolare in tre campi: digitale, fisico e politico. Si suggerisce che l'IA potrebbe consentire ad attori malvagi di effettuare attacchi su larga scala, accuratamente mirati e altamente efficienti. Shahar Avin, del Centre for the Study of Existential Risk (CSER) dell'Università di Cambridge, ha spiegato alla BBC che lo studio si è concentrato su settori dell'IA già disponibili o che lo saranno probabilmente nel giro di cinque anni, piuttosto che guardare a un futuro lontano. Nello studio, che si riferisce all'IA come a una tecnologia «duale», con potenziali usi militari e civili, ossia «diretta a scopi sia benefici che dannosi», si legge: «Man mano che le capacità dell'IA diventano più potenti e diffuse, prevediamo che l'uso crescente di tali sistemi porti a… l'espansione delle minacce esistenti… l'introduzione di nuove minacce… [e a un] cambiamento del carattere tipico delle stesse». In una dichiarazione scritta, il dott. Seán Ó hÉigeartaigh, direttore esecutivo del CSER e uno degli autori dello studio, ha affermato: «Viviamo in un mondo che potrebbe diventare pieno di pericoli quotidiani derivanti dall'abuso dell'IA e dobbiamo assumerci la responsabilità dei problemi, perché i rischi sono reali. Ci sono scelte che dobbiamo fare adesso e il nostro studio è una chiamata all'azione per governi, istituzioni e singoli in tutto il mondo». Gli autori prevedono nuovi tipi di attacchi cibernetici, quali attacchi hacker automatizzati, sintesi vocale per imitazioni, spam accuratamente mirato usando le informazioni ricavate dai social media, oppure sfruttamento delle debolezze degli stessi sistemi di IA, ad esempio attraverso prove accusatorie e inquinamento di dati. Lo studio indicava inoltre la possibilità di impegnare droni e sistemi cyber-fisici per atti malevoli, quali incidenti di flotte di veicoli autonomi o l'armamento di «sciami di droni» per uccidere membri specifici in mezzo alla folla usando la tecnologia del riconoscimento facciale. Tra le minacce alla sicurezza politica elencate nello studio vi sono anche video falsi creati per manipolare l'opinione pubblica o l'uso di piattaforme di sorveglianza automatizzate volte a sopprimere il dissenso negli Stati autoritari. Sebbene lo studio suoni un allarme per quanto riguarda le minacce imminenti derivanti dall'IA, non offre misure di prevenzione specifiche contro gli abusi di queste tecnologie e rileva, inoltre, i molti punti di disaccordo che rimangono fra gli autori stessi e altri esperti in questo campo. «Noi la analizziamo, ma non risolviamo in maniera definitiva la questione di quale sarà l'equilibrio a lungo termine fra chi attacca e chi difende. Ci concentriamo invece su quali tipi di attacchi potremmo presto vedere se non verranno sviluppate difese adeguate», concludono gli autori.

Paesi

Regno Unito, Stati Uniti

Articoli correlati