Con un voto schiacciante di 99 a 1, il Senato degli Stati Uniti ha respinto una proposta di legge che prevedeva una moratoria decennale sulla possibilità per gli Stati federati di regolamentare l’intelligenza artificiale. La norma era stata inserita nella versione originaria del nuovo pacchetto fiscale e di spesa promosso da Donald Trump e sostenuta dai colossi della tecnologia.
Il voto, avvenuto durante una maratona legislativa sul cosiddetto “big, beautiful bill” del presidente, ha segnato una netta battuta d’arresto per le Big Tech, che puntavano a evitare una proliferazione di normative statali differenti che avrebbero potuto rallentare lo sviluppo del settore.
Indice degli argomenti:
I timori delle Big Tech: frammentazione normativa e concorrenza cinese
I principali attori della Silicon Valley avevano appoggiato la proposta, temendo che regolamentazioni locali eterogenee potessero creare un mosaico normativo ingestibile e penalizzare l’innovazione statunitense. Secondo loro, il rischio era quello di perdere terreno nella competizione globale, in particolare nei confronti della Cina, sempre più aggressiva nello sviluppo di tecnologie AI.
Il Senato Usa boccia lo stop alla regolamentazione dell’AI: le divisioni nel Partito Repubblicano
La proposta ha però suscitato un acceso dibattito anche all’interno del Partito Repubblicano. Il Segretario al Commercio, Howard Lutnick aveva cercato un compromesso proponendo un limite di cinque anni alla regolamentazione statale, affermando su X che gli Stati Uniti devono “dare priorità a investimenti e innovazione” se vogliono vincere la corsa all’intelligenza artificiale.
Ma molti senatori repubblicani hanno espresso scetticismo, sottolineando i rischi di una deregolamentazione totale in un ambito così delicato. La possibilità di lasciare un potere quasi illimitato alle aziende private, senza controlli pubblici a livello statale, è apparsa inaccettabile anche a una parte della base conservatrice.
I timori degli attivisti: no all’autoregolamentazione dell’AI
Alla base del rigetto della norma c’è anche l’opposizione dei gruppi per la sicurezza dell’AI. Secondo gli attivisti, lasciare che siano le stesse aziende tecnologiche a “sorvegliarsi” potrebbe avere conseguenze sociali disastrose. In un momento in cui i modelli diventano sempre più potenti e pervasivi, serve un controllo istituzionale trasparente e multilivello.
Il timore è che l’autoregolamentazione porti a incidenti, abusi o distorsioni sistemiche difficili da correggere a posteriori, soprattutto se i singoli Stati vengono esclusi dal processo normativo.
Una sconfitta simbolica per il “modello Silicon Valley”
La misura era stata inclusa nella proposta originaria approvata dalla Camera dei Rappresentanti, ma il voto del Senato ne ha decretato la fine. Il risultato segna una chiara presa di distanza del Congresso dalla visione secondo cui l’innovazione debba essere favorita a ogni costo, anche a scapito di trasparenza e controllo democratico.
In un clima di crescente attenzione verso l’impatto sociale dell’intelligenza artificiale, il Senato ha scelto di non sacrificare la possibilità degli Stati di intervenire con regolamenti mirati. Una decisione che, pur andando contro gli interessi delle Big Tech, sembra riflettere le preoccupazioni più ampie di un’America in cerca di equilibrio tra progresso tecnologico e responsabilità pubblica.