Decine di ricercatori, inclusi figure di spicco di OpenAI e Google DeepMind, sollevano seri dubbi sui rischi connessi all’uso diffuso dell’IA, con anche esperti italiani tra i firmatari
Un grido d’allarme si leva dal mondo della ricerca sull’Intelligenza Artificiale: secondo un’appello pubblicato da esperti del settore, tra cui ad di rinomate aziende come OpenAI e Google DeepMind, l’IA potrebbe rappresentare una minaccia reale per l’umanità, equiparabile a rischi globali come pandemie e guerra nucleare.
L’avvertimento, condiviso anche da illustri figure italiane come il fisico Roberto Battiston dell’Università di Trento e Luca Simoncini, ex docente di Ingegneria dell’Informazione all’Università di Pisa, pone l’accento, non solo sulla possibilità di una superintelligenza sovrastante, ma soprattutto sulle conseguenze dell’ampio utilizzo degli algoritmi d’IA nella vita quotidiana.
Secondo Battiston, le potenziali interferenze nei processi elettorali, la diffusione di notizie false e la manipolazione delle informazioni rappresentano solo alcune delle sfide concrete che l’IA potrebbe introdurre nella società. Tuttavia, sottolinea l’importanza di prepararsi ad affrontare tali situazioni, citando precedenti episodi come il caso di Cambridge Analytica e le tattiche di manipolazione online dei troll russi.
Per Simoncini, l’IA, pur portando una rivoluzione in diversi settori, solleva gravi problemi che vanno affrontati con urgenza. “L’intelligenza artificiale è così pervasiva da avere un forte impatto in molti aspetti della vita sociale ed economica”, afferma l’esperto, evidenziando il rischio di diffusione di notizie false e il controllo di tecnologie come le auto autonome.
L’avvertimento degli esperti richiama alla mente il manifesto di Bertrand Russell e Albert Einstein del 1955, che denunciava i pericoli delle armi nucleari. Allo stesso modo, la dichiarazione del Center for AI Safety ricorda l’urgenza di affrontare i rischi dell’IA per garantire un futuro sicuro per l’umanità.