Le lancette dell’orologio vanno avanti sull’IA?
«Probabilmente nessuno di noi avrà un lavoro», Elon Musk a ha dichiarato(si apre in una nuova finestra) parlando in collegamento a distanza a un’importante conferenza tecnologica a Parigi il 23 maggio. Il miliardario non ha evitato di parlare dell’intelligenza artificiale come della sua più grande paura. Poche ore prima, in occasione dello AI Safety Summit tenutosi a Seul il 21, 16 aziende, tra cui Google, Meta e Microsoft, si sono impegnate a sviluppare l’IA in modo sicuro. Questa dichiarazione è stata sostenuta da 10 paesi e dall’UE. «Stiamo assistendo a progressi tecnologici che cambiano la vita... e a nuovi rischi potenzialmente letali - dalla disinformazione alla sorveglianza di massa fino alla prospettiva di armi autonome letali», ha commentato(si apre in una nuova finestra) il Segretario generale delle Nazioni Unite António Guterres durante il vertice globale.
Per chi dice di volere una rivoluzione dell’IA
Nella rivista «Science»(si apre in una nuova finestra), 25 tra i maggiori esperti accademici di IA, tra cui i «padrini dell’IA» Geoffrey Hinton e Yoshua Bengio, avvertono che è necessario fare molto di più per raggiungere un accordo globale sulla sicurezza. Presentano misure politiche per la ricerca, lo sviluppo e la governance per mitigare i rischi e le minacce. Gli autori sostengono che non siamo adeguatamente preparati ad affrontare i potenziali rischi dell’IA, poiché poche risorse sono dedicate alla salvaguardia dello sviluppo e dell’implementazione sicura ed etica delle tecnologie dell’IA. Esortano le grandi aziende tecnologiche e i finanziatori pubblici a investire di più, destinando almeno un terzo dei loro bilanci ad affrontare i rischi. Chiedono inoltre che i regolatori e i governi globali mettano in vigore standard che impediscano l’imprudenza e l’uso improprio.
Trasformare la discussione in azione reale
«Durante l'ultimo vertice sull’IA il mondo ha convenuto sulla necessità di agire, ma ora è giunto il momento di passare da proposte vaghe a impegni concreti. Questo documento fornisce molte raccomandazioni importanti su ciò che le aziende e i governi dovrebbero impegnarsi a fare», ha commentato il co-autore, il Philip Torr dell’Università di Oxford, in un comunicato stampa(si apre in una nuova finestra). «Dobbiamo prepararci a rischi che possono sembrare fantascientifici, come l’hacking di sistemi di intelligenza artificiale in reti e infrastrutture essenziali, la manipolazione politica dell’intelligenza artificiale su scala, i soldati robotici e i droni killer completamente autonomi, e persino l’intelligenza artificiale che tenta di superarci in astuzia e di eludere i nostri sforzi per spegnerli», ha spiegato il coautore Jan Brauner, anch’egli dell'Università di Oxford. «Attualmente, il mondo dell’IA si concentra sull’ampliare sempre di più le capacità dell’IA, lasciando in secondo piano la sicurezza e l’etica. Affinché l’IA sia una manna, dobbiamo trovare un nuovo orientamento; ampliare le capacità non è sufficiente».