Mentre in Europa si sta tentando di rimettere in discussione la piena applicazione dell’AI Act, anche per la pressione che stanno esercitando le lobby dell’hi-tech Usa, il Senato dello Stato di New York ha approvato una importante legge per la sicurezza dell’intelligenza artificiale. Il provvedimento, denominato RAISE Act, mira a impedire che i modelli di AI più avanzati – sviluppati da giganti come OpenAI, Google e Anthropic – contribuiscano a scenari disastrosi che potrebbero causare oltre 100 morti o danni superiori a 1 miliardo di dollari.
La misura rappresenta un importante successo per il movimento in favore della sicurezza dell’AI, che negli ultimi anni aveva perso terreno a favore della velocità e dell’innovazione promosse da Silicon Valley e dall’amministrazione Trump.
Indice degli argomenti:
Un sostegno accademico di alto profilo

Il RAISE Act è sostenuto da figure di spicco come il premio Nobel Geoffrey Hinton e il pioniere della ricerca sull’AI, Yoshua Bengio, entrambi promotori di standard più rigorosi per i laboratori di intelligenza artificiale. Se firmata dal governatore Kathy Hochul, la legge costituirà il primo quadro normativo obbligatorio negli Stati Uniti per la trasparenza delle AI frontier.
RAISE Act, diverso dalla legge californiana, più attento all’innovazione
Il senatore Andrew Gounardes, co-sponsor del disegno di legge, ha dichiarato di aver progettato l’atto con l’obiettivo di non ostacolare l’innovazione, soprattutto tra startup e ricercatori accademici, un punto critico che aveva segnato la bocciatura del controverso SB 1047 in California. “La finestra temporale per mettere in atto delle barriere di sicurezza si sta rapidamente chiudendo, vista la velocità con cui evolve questa tecnologia”, ha affermato Gounardes. “Le persone che conoscono meglio [l’IA] dicono che questi rischi sono altamente probabili […] Questo è allarmante”, ha affermato.
Trasparenza, sicurezza e sanzioni fino a 30 milioni
La legge, se approvata, imporrà ai maggiori laboratori di AI mondiali di pubblicare report dettagliati sulla sicurezza e sulla protezione dei loro modelli. Inoltre, dovranno notificare eventuali incidenti, come comportamenti anomali dell’AI o furti del modello da parte di attori malevoli.
Le aziende che non rispetteranno queste regole potranno essere sanzionate con penali civili fino a 30 milioni di dollari, a discrezione del procuratore generale dello Stato di New York.
Chi è soggetto al RAISE Act
Il RAISE Act mira esclusivamente ai colossi globali, che siano basati in California (come OpenAI o Google) o in Cina (come DeepSeek o Alibaba). I requisiti di trasparenza si applicano alle aziende che hanno impiegato più di 100 milioni di dollari in risorse computazionali per l’addestramento dei modelli – una soglia che, di fatto, esclude le realtà minori – e che offrono i loro servizi ai residenti di New York.
Nessun “interruttore d’emergenza”, ma Silicon Valley protesta
Secondo Nathan Calvin, vicepresidente di Encode e tra gli autori del testo, il RAISE Act ha cercato di rispondere alle critiche rivolte ai precedenti tentativi di normare l’AI. A differenza della legge californiana, non obbliga i laboratori a inserire un “kill switch” nei modelli, né responsabilizza chi addestra un modello frontier rispetto a eventuali danni.
Nonostante ciò, la legge ha incontrato forti resistenze da parte dell’industria tecnologica. Il deputato statale Alex Bores, co-sponsor del provvedimento, ha confermato l’opposizione da parte della Silicon Valley, pur ribadendo: “La legge RAISE di New York è un altro stupido, stupido disegno di legge sull’AI a livello statale che danneggerà solo gli Stati Uniti, proprio mentre i nostri avversari ci stanno superando”, ha dichiarato su X Anjney Midha, partner di Andreessen Horowitz.
RAISE Act: i dubbi di Anthropic e il peso economico di New York
Il co-fondatore di Anthropic Jack Clark, pur non prendendo ancora una posizione ufficiale, ha espresso riserve sul fatto che il RAISE Act potrebbe penalizzare anche aziende più piccole. Gounardes ha replicato sostenendo che la legge è stata pensata proprio per non colpire le piccole realtà.
OpenAI, Google e Meta non hanno commentato.
Alcuni critici sostengono che, in risposta al provvedimento, i big dell’AI potrebbero decidere di non distribuire i modelli più avanzati nello Stato di New York, replicando quanto già visto in Europa a causa delle normative restrittive.
Bores ha però minimizzato il rischio, ricordando che: “Non voglio sottovalutare le meschinità politiche che potrebbero verificarsi, ma sono molto fiducioso che non esistano ragioni economiche per cui [le aziende di IA] non dovrebbero rendere disponibili i loro modelli a New York.”
Con il terzo PIL più alto negli Stati Uniti, lo Stato di New York resta una piazza troppo importante per essere ignorata dalle big tech. Ora, la parola passa al governatore Hochul.