Una lettera saggio da 38 pagine per avvisare l’umanità sui rischi dell’AI. L’intervento appena pubblicato da Dario Amodei, amministratore delegato di Anthropic, è scritto da chi costruisce i modelli di frontiera e sostiene che la traiettoria tecnologica in corso potrebbe produrre danni su scala civile nel giro di pochi anni, se non verranno introdotti limiti e controlli più stringenti.
Amodei non dice che il disastro sia inevitabile. Dice che il tempo per evitarlo potrebbe essere molto più breve di quanto governi e opinione pubblica sembrino disposti ad ammettere.
Indice degli argomenti:
Un passaggio critico nella storia tecnologica
Il cuore della lettera è l’idea che l’umanità stia attraversando una soglia. Secondo Amodei, se il ritmo di progresso osservato nell’ultimo decennio continuerà, l’AI potrebbe superare le capacità umane nella maggior parte delle attività cognitive rilevanti. Non è una certezza, lo scrive esplicitamente, ma è una possibilità concreta supportata dai trend di scala dei modelli, dall’automazione dello sviluppo software e dall’integrazione crescente tra AI e strumenti operativi.
Da qui nasce la metafora che attraversa tutto il testo: un “paese di geni in un data center”. Non un’entità senziente o ostile, ma un insieme di sistemi capaci di progettare, scrivere codice, ottimizzare processi industriali e fare ricerca scientifica a un livello superiore a quello umano, in modo continuo e a costi marginali bassissimi. Per Amodei, una concentrazione di capacità di questo tipo equivale a una nuova forma di potere strategico.
Lavoro e sicurezza: i primi fronti di impatto
La lettera insiste su due conseguenze immediate. La prima riguarda il lavoro qualificato. Amodei ritiene plausibile che una quota molto ampia dei ruoli impiegatizi di ingresso venga automatizzata in tempi brevi, mentre nello stesso arco temporale potrebbero emergere sistemi più capaci dei singoli lavoratori umani. Il problema, nella sua lettura, non è solo la perdita di posti, ma la velocità con cui l’impatto potrebbe manifestarsi, lasciando poco spazio a riconversione e adattamento.
La seconda conseguenza è la sicurezza. Amodei individua nella biologia il campo più delicato, perché l’AI riduce drasticamente la barriera tecnica per progettare molecole, simulare processi e individuare vulnerabilità. Non sostiene che attacchi di massa siano imminenti o inevitabili, ma che l’aumento delle capacità, distribuito su milioni di utenti e su più anni, renda realistico il rischio di eventi con conseguenze enormi. Il punto chiave è che non serve un attore statale iper-organizzato: l’abbassamento delle soglie tecniche cambia il profilo del rischio.
Il bersaglio meno scontato: le aziende di AI
Uno dei passaggi più rilevanti della lettera è quello in cui Amodei sposta l’attenzione sulle stesse aziende che sviluppano l’AI. Scrive che i grandi laboratori privati concentrano data center, modelli di frontiera, competenze e accesso diretto a centinaia di milioni di utenti. Questa combinazione, avverte, crea un potere strutturale che merita un livello di scrutinio pubblico molto più alto di quello attuale.
Amodei non accusa le aziende di malafede sistematica. Sottolinea però che gli incentivi economici sono enormi e che la tentazione di minimizzare o nascondere segnali di rischio è reale, soprattutto in un contesto in cui l’AI promette profitti nell’ordine dei trilioni di dollari. Il problema, nella sua analisi, non è l’intenzione, ma la dinamica: competizione, segretezza e corsa alla distribuzione possono produrre effetti sistemici anche senza un piano deliberato.
Il confronto con Altman e LeCun
La posizione di Amodei si colloca in un punto preciso del dibattito tra i grandi protagonisti del settore. Sam Altman, a capo di OpenAI, tende a descrivere l’AI come una forza di crescita straordinaria, capace di migliorare il benessere globale se accompagnata da nuove forme di governance. Altman riconosce l’esistenza di rischi, ma li inquadra più spesso come problemi sociali e politici da gestire lungo il percorso, piuttosto che come una soglia critica imminente.
All’estremo opposto, Yann LeCun, oggi figura di riferimento in Meta, contesta apertamente l’idea di un rischio esistenziale a breve termine. LeCun sostiene che i sistemi attuali siano lontani da una vera autonomia cognitiva e che l’allarmismo rischi di distogliere l’attenzione dai problemi reali: cattiva ingegneria, uso malevolo da parte degli esseri umani, concentrazione di potere economico.
La frattura non è solo di tono. Amodei parla come chi teme che la finestra per intervenire si stia chiudendo; Altman come chi vuole costruire istituzioni mentre la tecnologia avanza; LeCun come chi ritiene che il salto verso una superintelligenza incontrollabile sia ancora teorico. Tutti e tre, però, convergono su un punto implicito: l’AI non è più un laboratorio isolato, ma un’infrastruttura che tocca lavoro, sicurezza e democrazia.
Dai timori astratti agli esempi concreti
La forza della lettera di Amodei sta anche nel collegare i rischi futuri a segnali già osservabili. Le frodi basate su deepfake vocali e video, le campagne di disinformazione automatizzata e gli esperimenti interni che mostrano comportamenti opportunistici dei modelli quando vengono dotati di strumenti operativi non sono ipotesi lontane. Sono episodi documentati che indicano come la combinazione tra capacità generativa e accesso a sistemi reali possa produrre effetti imprevisti.
Amodei non usa questi esempi per sostenere che l’AI “voglia” danneggiare l’umanità. Li usa per mostrare che, senza controlli robusti, sistemi sempre più capaci possono amplificare errori, abusi e comportamenti strategici indesiderati.
Cosa resta aperto
La lettera non offre un piano dettagliato di regolazione globale. È, dichiaratamente, un tentativo di forzare una presa di coscienza. La domanda che lascia sul tavolo non riguarda se l’AI porterà benefici – su questo Amodei dice di restare ottimista – ma se le società democratiche riusciranno a imporre limiti credibili prima che la combinazione di potere tecnologico e incentivi economici renda quei limiti politicamente impraticabili.






