La Commissione Europea ha avviato la selezione di 60 esperti indipendenti per costituire un panel scientifico incaricato di supportare l’attuazione e l’applicazione dell’AI Act, con particolare attenzione ai modelli e sistemi di intelligenza artificiale a uso generale (GPAI).
Il gruppo fornirà consulenza all’AI Office europeo e alle autorità nazionali in merito a rischi sistemici, classificazione dei modelli, metodi di valutazione e sorveglianza del mercato transfrontaliera. Avrà anche il compito di segnalare rischi emergenti. I membri verranno nominati per un mandato di due anni, rinnovabile.
La candidatura è aperta a esperti in GPAI, valutazione dei modelli, mitigazione dei rischi, cybersecurity, misurazioni computazionali e altri settori correlati. È richiesta una laurea di dottorato o esperienza equivalente, nonché indipendenza da fornitori di AI. L’obiettivo è assicurare un equilibrio di genere e rappresentanza tra Paesi UE, EFTA e SEE. Le domande si chiudono il 14 settembre.
Il mandato del panel si concentra sui modelli e sistemi di intelligenza artificiale a uso generale (GPAI). I candidati devono avere competenze nella GPAI, negli impatti dell’AI o in settori correlati.
Indice degli argomenti:
L’AI Office compie un anno: risultati, nuove iniziative e il futuro del GPAI
L’AI Office europeo celebra il suo primo anniversario, dopo aver raggiunto quota oltre 100 esperti attivi in settori chiave come politiche pubbliche, sanità, regolamentazione e cooperazione internazionale. Tra i risultati conseguiti figurano:
- le linee guida sulla definizione e le proibizioni dei sistemi AI,
- la creazione di un repository per l’alfabetizzazione AI,
- la collaborazione con l’AI Board degli Stati membri.
Il panel scientifico appena annunciato sarà presto affiancato da un Advisory Forum. Intanto è in arrivo un Codice di Condotta per la GPAI, costruito con il contributo di oltre 1.000 esperti, il cui impatto sarà valutato entro agosto 2025. Sono in lavorazione anche linee guida sui concetti GPAI e una consultazione pubblica sui sistemi AI ad alto rischio. L’ufficio sta inoltre preparando un AI Act Service Desk per orientare sviluppatori e autorità. Tra i principali risultati figurano la pubblicazione di linee guida sulla definizione dei sistemi di AI e sulle proibizioni, e la creazione di un repository per l’alfabetizzazione all’AI.
Un appello per norme GPAI al servizio dell’innovazione europea
Un gruppo eterogeneo composto da ricercatori AI, rappresentanti della società civile, accademici e Nobel come Daron Acemoglu e Geoffrey Hinton ha inviato una lettera alla Presidente della Commissione Europea. L’appello invita l’UE a resistere alle pressioni contro le norme GPAI.
Secondo i firmatari, l’UE può dimostrare che l’innovazione industriale e la tutela dei diritti fondamentali possono coesistere. Il Codice di Condotta, sviluppato in nove mesi con il contributo degli stakeholder, coinvolge principalmente 5-15 grandi aziende e si allinea con le pratiche di gestione del rischio già esistenti.
Tre le proposte chiave:
- Test di parte terza obbligatori per i modelli a rischio sistemico;
- Meccanismi di revisione flessibili per aggiornamenti rapidi in caso di nuove minacce;
- Rafforzamento dell’AI Office con 100 esperti per la sicurezza e 200 per l’implementazione.
L’UE può dimostrare la propria capacità di fornire strumenti favorevoli all’innovazione industriale, senza compromettere salute, sicurezza e diritti fondamentali.
Stati Uniti: caos normativo e spinta al dominio globale sull’AI
Secondo Euractiv, gli USA stanno affrontando un panorama normativo frammentato, con quasi 700 proposte di legge sull’AI nel 2024, di cui 113 già approvate. Colorado e Texas si sono ispirati all’AI Act europeo, mentre la California ha scelto approcci mirati su deepfake e repliche digitali.

Meta ha lamentato con la Casa Bianca un “ambiente normativo ingestibile”, con standard contrastanti e più stringenti di quelli UE. Tuttavia, questa frammentazione potrebbe agevolare l’applicazione dell’AI Act UE verso le aziende statunitensi.
Con il ritorno di Trump, la strategia cambia: revocato l’ordine esecutivo di Biden, l’AI diventa una leva geopolitica. Le big tech spingono ora per una regolamentazione federale unificata che superi quelle statali
Il Kazakistan si ispira all’UE per la prima legge sull’AI in Asia Centrale
Anche il Kazakistan guarda all’Europa. Il Paese sta sviluppando la sua prima legge sull’intelligenza artificiale, ispirandosi apertamente all’AI Act europeo. La legge, approvata in prima lettura a maggio, mira a garantire un’AI antropocentrica e basata sulla fiducia.
Secondo Shoplan Saimova, dell’Istituto di Parlamentarismo, l’obiettivo è essere pionieri regionali e costruire una normativa in linea con le priorità nazionali. Tuttavia, un’analisi accademica ha evidenziato quattro criticità rispetto al modello UE:
Il Kazakistan punta a guidare, non a seguire, costruendo fiducia tra esseri umani e sistemi di AI, proteggendo allo stesso tempo l’interesse pubblico.
Generative AI e GPAI: la visione dell’Europa
Un recente report del Joint Research Centre della Commissione Europea ha analizzato l’impatto dell’AI generativa (GenAI) su innovazione, produttività e trasformazione sociale.
Molti sistemi GenAI rientrano nella categoria a “rischio limitato”, con obblighi di trasparenza per gli utenti e identificabilità dei contenuti. Tuttavia, la GenAI può essere parte anche di usi ad alto o inaccettabile rischio, come:
- chatbot che impersonano familiari,
- sistemi che occultano comportamenti durante i test.
Essendo dotati di capacità GPAI, questi sistemi devono adeguarsi alle relative norme. L’AI Office sta elaborando un Codice di Condotta specifico, basato sulle migliori pratiche disponibili.
Le pratiche vietate includono manipolazioni e inganni basati sull’AI, come chatbot che impersonano familiari o sistemi progettati per nascondere comportamenti indesiderati durante la valutazione.
Dato che molti modelli GenAI possiedono capacità GPAI, dovranno adeguarsi alle relative regole.