Un’alleanza eterogenea sfida a sorpresa il panorama della tecnologia: Steve Bannon, Meghan Markle (moglie del principe Harry) e l’attore Stephen Fry si sono uniti a una cerchia di circa mille figure pubbliche – da scienziati e premi Nobel a leader religiosi, da dirigenti aziendali a politici – per chiedere una “prohibition on the development of superintelligence”, ovvero un divieto allo sviluppo della cosiddetta superintelligenza fino a che non vi sia un consenso scientifico ampio e un sostegno pubblico forte. In totale, al 23 ottobre i firmatari dell’appello sono oltre tremila e il numero continua a crescere.
L’iniziativa è organizzata dal Future of Life Institute (FLI), un’organizzazione no-profit impegnata nel ridurre i rischi estremi associati a tecnologie “trasformative” come l’AI.
Indice degli argomenti:
Il contenuto dell’appello: principio e condizioni
“We call for a prohibition on the development of superintelligence, not lifted before there is broad scientific consensus that it will be done safely and controllably, and strong public buy-in.”
“Chiediamo che venga vietato lo sviluppo della superintelligenza, fino a quando non vi sarà un ampio consenso scientifico sulla sua sicurezza e controllabilità, nonché un forte sostegno da parte dell’opinione pubblica”.
In sintesi, i firmatari chiedono che:
- lo sviluppo di sistemi con capacità intellettive superiori a quelle umane sia interrotto,
- tale divieto non venga revocato fino a che non si raggiunga un consenso scientifico che garantisca sicurezza e controllabilità,
- vi sia un’ampia accettazione sociale come prerequisito per riprendere lo sviluppo.
Va sottolineato che non si tratta di un divieto generalizzato sull’intelligenza artificiale, bensì di uno stop mirato alla superintelligenza, e l’appello specifica che non si intende “una pausa totale” su tutte le forme di AI.
Leggi il contenuto integrale dell’appello
Chi ha firmato l’appello: un fronte trasversale
Tra i firmatari spiccano pionieri dell’AI come Geoffrey Hinton e Yoshua Bengio (vincitori del Turing Award), l’ex presidente dell’Irlanda Mary Robinson, il principe Harry, ma anche scienziati cinesi come Andrew Yao e Ya-Qin Zhang, ex presidente di Baidu. Altri nomi includono Susan Rice, ex consigliera per la sicurezza nazionale USA, l’ammiraglio Mike Mullen, nonché imprenditori tecnologici come Steve Wozniak e Richard Branson, oltre a leader religiosi di diverse comunità, personalità come Padre Paolo Benanti, che è stato consigliere di papa Francesco sui temi dell’intelligenza artificiale.
L’appello sottolinea un punto saliente: la perdita del controllo sull’AI è considerata una minaccia per la sicurezza nazionale, e tanto gli Stati Uniti quanto la Cina vedono tale rischio come un interesse strategico da controllare.
Sam Altman, cofondatore e amministratore delegato di OpenAI, ha affermato che il traguardo della superintelligenza potrebbe essere raggiunto entro cinque anni.
“Non importa se sarà tra due o quindici anni. Sviluppare la superintelligenza è inaccettabile”, ha dichiarato Max Tegmark, presidente del Future of life institute, secondo cui nessuna azienda dovrebbe essere autorizzata a lanciare progetti di questo tipo “al di fuori di qualunque quadro normativo”.
“Si può essere favorevoli allo sviluppo di strumenti d’intelligenza artificiale più potenti, per esempio per curare il cancro, senza arrivare alla superintelligenza”, ha aggiunto.
Joshua Bengio, professore di Informatica all’Università di Montreal, scrive nell’appello: “I sistemi di intelligenza artificiale all’avanguardia potrebbero superare la maggior parte delle persone nella maggior parte delle attività cognitive nel giro di pochi anni. Questi progressi potrebbero sbloccare soluzioni alle principali sfide globali, ma comportano anche rischi significativi. Per avanzare in modo sicuro verso la superintelligenza, dobbiamo determinare scientificamente come progettare sistemi di intelligenza artificiale che siano fondamentalmente incapaci di danneggiare le persone, sia attraverso un disallineamento che un uso malintenzionato. Dobbiamo anche assicurarci che il pubblico abbia voce in capitolo nelle decisioni che plasmeranno il nostro futuro collettivo”.
Yuval Noah Harari, autore e professore all’Università Ebraica di Gerusalemme, scrive: “La superintelligenza rischierebbe di distruggere il sistema operativo stesso della civiltà umana ed è del tutto superflua. Se invece ci concentriamo sulla creazione di strumenti di IA controllabili per aiutare le persone realmente oggi, potremo realizzare in modo molto più affidabile e sicuro gli incredibili vantaggi dell’IA”.
Opinioni e contestazioni nel dibattito
Mentre l’appello raccoglie adesioni dai più disparati contesti, emergono le critiche. Alcuni commentatori sostengono che un divieto arretrerebbe l’innovazione tecnologica e danneggerebbe la competitività nei settori emergenti. Altri obiettano che la superintelligenza resta uno scenario speculativo e che misure prudenziali già in corso – come regolamenti e controlli – potrebbero essere sufficienti.
Nel 2023, il Future of Life Institute aveva promosso una lettera simile chiedendo una moratoria di sei mesi sugli esperimenti avanzati di AI, coinvolgendo firmatari come Elon Musk e Stuart Russell. Questa nuova iniziativa è più focalizzata e meno radicale rispetto alla moratoria totale proposta all’epoca.
Il contesto normativo: regolamentazione e frammentazione globale
La spinta a regole più severe sull’AI non è isolata. In Europa, l’AI Act dell’UE è il primo tentativo normativo organico: suddivide i sistemi AI in categorie di rischio e proibisce certi usi (come sistemi manipolativi o discriminatori).
Tuttavia, la sua applicazione è graduale e criticata dall’industria per la complessità regolamentare.
Negli Stati Uniti, la regolazione dell’AI è frammentata: diversi Stati (California, Texas, Utah) hanno approvato norme specifiche; una proposta di moratoria decennale sullo sviluppo dell’AI è stata rimossa da un disegno di legge federale.
Sul piano internazionale, alcuni studi propongono trattati globali con limiti computazionali (global compute cap) per regolamentare l’uso delle risorse di calcolo in AI avanzata.
Perché ora? La prospettiva di un rischio esistenziale
Il riemergere di questo appello coincide con un clima crescente di preoccupazione sul potenziale di AI sempre più forte. FLI e altri sostenitori affermano che non è necessario raggiungere la superintelligenza per ottenere effetti positivi dall’AI (ad esempio nella medicina, nella produttività, nei veicoli autonomi).
Ma il timore che un’AI superintelligente sfugga al controllo umano, si evolva autonomamente o prenda decisioni che confliggano con l’interesse umano alimenta il senso d’urgenza.
Un recente libro, If Anyone Builds It, Everyone Dies (Se qualcuno la costruisce, tutti muoiono) di Eliezer Yudkowsky e Nate Soares, espone scenari in cui una superintelligenza incontrollata potrebbe condurre all’estinzione umana.
Implicazioni per l’Italia e l’Europa
L’appello sottolinea come il rischio non sia solo tecnologico, ma politico, sociale e strategico. In Italia e nell’Unione Europea, la discussione sull’AI è cresciuta negli ultimi anni e le soluzioni normative dovranno affrontare sfide come:
- bilanciare sicurezza e innovazione per il tessuto imprenditoriale,
- coordinare regolamentazioni nazionali con leggi europee,
- promuovere trasparenza e consenso pubblico su tecnologie complesse,
- partecipare nel dialogo globale su trattati e governance internazionale dell’AI.
Se l’iniziativa del FLI e dei firmatari riuscirà a sollecitare una risposta politica coerente, potrebbe spingere governi e istituzioni europee a rafforzare i pilastri normativi già in corso, come l’AI Act, integrandoli con meccanismi di governance mondiale.
L’alleanza insolita fra figure di mondi molto diversi riflette quanta ansia e riflessione stia suscitando il tema dell’intelligenza artificiale. Il nodo centrale rimane: chi controlla le macchine che potrebbero superare l’intelligenza umana? E se il tempo per una risposta regolamentata è breve, questo appello potrebbe segnare un punto di svolta nel modo in cui società e governi disciplinano il futuro tecnologico.







