Dopo anni di vuoto normativo federale sull’intelligenza artificiale, coperto a rattoppi da un mosaico di leggi statali spesso tra loro incompatibili, Washington ha accelerato improvvisamente. In meno di una settimana, tra il 18 e il 20 marzo 2026, sono arrivati sul tavolo del Congresso due testi distinti: prima la bozza della senatrice Marsha Blackburn, poi il framework della Casa Bianca.
Due impostazioni diverse, in parte già in tensione tra loro. Il documento dell’amministrazione Trump, un pacchetto di raccomandazioni legislative di quattro pagine pubblicato il 20 marzo, non è ancora una legge. Si tratta di un wishlist politico che chiede al Congresso di tradurne i principi in norma. I principi che contiene sono già abbastanza chiari da meritare attenzione, anche fuori dai confini americani.
Indice degli argomenti:
Cosa chiede al Congresso: i sei obiettivi
Il framework non si limita a invocare una cornice federale unica per l’AI. Elenca sei obiettivi politici che servono a capire dove l’amministrazione vuole portare il dibattito:
- proteggere i minori e rafforzare il ruolo dei genitori,
- tutelare le comunità americane,
- rispettare la proprietà intellettuale sostenendo i creatori,
- prevenire la censura e proteggere il free speech,
- abilitare l’innovazione e la dominanza americana nell’AI,
- sviluppare una workforce pronta per l’era dell’AI.
Sul fronte della tutela dei minori, il documento chiede al Congresso di dotare genitori e tutori di strumenti per gestire le impostazioni sulla privacy dei figli, il tempo davanti allo schermo e l’esposizione ai contenuti. Chiede inoltre ai laboratori di AI di stabilire sistemi di verifica dell’età commercialmente ragionevoli. Vuole proteggere individui dall’uso non autorizzato di repliche digitali di voce e sembianze, pur insistendo sul fatto che tale protezione non soffochi satira, parodia e libera espressione.
Sul lavoro, il framework insiste su formazione, apprendistato e raccolta di dati sugli effetti occupazionali dell’AI, un segnale che l’amministrazione riconosce il tema anche se non vuole affrontarlo in modo prescrittivo.
Sull’energia, la Casa Bianca collega lo sviluppo dell’AI ai data center e alla rete elettrica, chiedendo al Congresso di codificare anche l’impegno firmato da Amazon, Google e OpenAI all’inizio di marzo: le società tecnologiche devono fornire o pagare l’elettricità usata dai data center che gestiscono.
La preemption selettiva: chi comanda e su cosa
Il cuore politico del documento è la questione della preemption, cioè la prevalenza della legge federale su quelle statali. La Casa Bianca non propone un azzeramento totale delle competenze degli stati: distingue tra ciò su cui il Congresso dovrebbe prevalere, le leggi statali che impongono oneri indebiti allo sviluppo dei modelli o che penalizzano i provider per condotte illecite di terzi, e ciò che dovrebbe restare agli stati: protezione dei minori, frode, tutela dei consumatori, scelta dei luoghi per le infrastrutture, regole sul proprio uso pubblico dell’AI in ambiti come law enforcement e istruzione.
Una distinzione decisiva, perché restringe il campo della preemption rispetto all’idea più aggressiva di un solo rulebook e basta. Ma non basta a sedare le opposizioni interne. Già l’anno scorso il Senato ha votato 99 a 1 per affossare una moratoria sulle leggi statali sull’AI che l’amministrazione voleva inserire nella legislazione fiscale di Trump. Molti governatori e parlamentari repubblicani continuano a resistere, rivendicando il diritto degli stati a regolamentare la tecnologia.
Sul fronte dell’architettura regolatoria, la linea è netta: nessun nuovo organismo federale di rulemaking dedicato all’AI. I vigilanti esistenti devono supervisionare il settore attraverso standard guidati dall’industria. Regulatory sandboxes, accesso ai dataset federali in formato AI-ready e rifiuto di un super-regolatore federale: sono i tre strumenti che Washington propone per favorire l’innovazione senza costruire nuove burocrazie.
Il nodo politico: backlash MAGA e midterm in vista
La mossa della Casa Bianca arriva in un momento politicamente complicato. La politica AI di Trump è stata plasmata da funzionari con stretti legami con la Silicon Valley, a partire dal venture capitalist David Sacks, nominato zar dell’AI e delle criptovalute. Ma l’industria tecnologica non è più un alleato silenzioso e comodo: i suoi interessi si scontrano con una crescente diffidenza dell’elettorato repubblicano verso l’AI, preoccupato per la perdita di posti di lavoro, i rischi per i bambini e i costi energetici in aumento. Una serie di sondaggi recenti mostrano che queste preoccupazioni sono diffuse proprio tra gli elettori di Trump.
I legislatori repubblicani di tutto il Paese hanno risposto presentando decine di disegni di legge statali, sfidando apertamente la linea della Casa Bianca. Con le elezioni di midterm sempre più in vista e una maggioranza risicatissima al Congresso, è molto improbabile che il framework si traduca rapidamente in legge, e ancora più improbabile che ottenga un sostegno bipartisan.
Il leader della maggioranza al Senato John Thune ha riconosciuto la difficoltà: bisogna trovare un modo per rispondere alle preoccupazioni di chi non vuole che Washington calpesti i diritti degli stati.
Il presidente della Commissione Commercio Ted Cruz dice di sperare di presentare un disegno di legge entro fine aprile, eventualmente abbinato a una legge sulla sicurezza dei minori online nota come KOSA, per attrarre qualche voto democratico. Ma la strada è in salita.
Perché questa partita conta anche per l’Europa
I modelli che utilizziamo in Europa sono in gran parte americani. Le regole che Washington sceglierà di applicare, su copyright, responsabilità, trasparenza, dataset pubblici, data center e standard tecnici, avranno ricadute dirette sui servizi che usiamo già oggi e su quelli che arriveranno nei prossimi anni.
La corsa alla regolazione non è solo una questione interna agli Stati Uniti: è uno dei terreni su cui si gioca la governance globale dell’intelligenza artificiale. Dove l’Europa ha puntato sulla regolazione dei rischi con l’AI Act, la linea americana emersa a Washington mette al centro competitività, sicurezza nazionale e rapidità di dispiegamento industriale. Due filosofie regolatorio diverse, su modelli che operano negli stessi mercati.
Sullo sfondo: la bozza Blackburn e le divergenze già aperte
Due giorni prima del framework della Casa Bianca, il 18 marzo, la senatrice repubblicana Marsha Blackburn (Tennessee) aveva depositato un discussion draft ambizioso e controverso. Si chiama Trump America AI Act, acronimo costruito ad arte, conta quasi 300 pagine. Si tratta del primo tentativo organico di tradurre in norma l’ordine esecutivo firmato da Trump nel dicembre 2025, ed è dichiaratamente negoziale: sarà probabilmente modificato in parti significative prima di arrivare a un voto.
Il punto più dirompente del testo è sul copyright: il training di modelli AI su opere protette senza autorizzazione dei titolari non costituisce fair use ai sensi del Copyright Act americano. Oggi quasi tutti i grandi modelli linguistici e generativi sono stati addestrati su enormi corpus di testi e immagini protette, facendo leva proprio su questa difesa giuridica. Se la norma passasse nella forma attuale, l’intera industria dell’AI dovrebbe rinegoziare i propri rapporti con editori, autori e case discografiche, quasi certamente attraverso schemi di licenza collettiva. Su questo punto la Casa Bianca prende una direzione opposta: il framework del 20 marzo considera lecito il training su opere protette e preferisce demandare alle corti la definizione del fair use, aprendo semmai a schemi di licenza volontaria.
Una frattura già aperta, e non secondaria. La bozza Blackburn va oltre: prevede l’abolizione della Section 230 per le piattaforme AI, le protezioni di responsabilità su cui si è retto per anni il modello economico delle grandi piattaforme, introduce un duty of care esplicito sugli sviluppatori, aprendo a una logica molto più simile alla product liability.
Il framework della Casa Bianca, invece, non sposa né il sunset della Section 230 né un’espansione generalizzata della responsabilità civile: la linea presidenziale appare sensibilmente più light touch di quella senatoriale.
Due binari, una legge ancora da scrivere
Tra il 18 e il 20 marzo 2026 Washington ha messo in campo due impostazioni federali sull’AI: una più dura, legislativa e sanzionatoria, incarnata dalla bozza Blackburn; una più programmatica, competitiva e selettivamente deregolatoria, espressa dalla Casa Bianca. I due documenti convergono sull’idea di una cornice federale unica, ma divergono già in modo netto su copyright, responsabilità e spazio degli stati. Se nascerà una legge federale vera, molto probabilmente nascerà dalla tensione tra questi due testi.
Partita interessante e non scontata, anche alla luce delle elezioni di midterm e della crescita delle opposizioni interne al partito repubblicano. Vale la pena seguirla con attenzione, anche da questa parte dell’Atlantico.






