L’Ue potrebbe essere in ritardo sulla normativa che riguarda gli agenti AI. L‘articolo 73 dell‘AI Act stabilisce che i fornitori di sistemi di AI ad alto rischio devono notificare alle autorità nazionali competenti ogni “serio incidente” che coinvolga i loro sistemi. Le segnalazioni devono avvenire rapidamente – entro 15 giorni dalla scoperta della connessione tra sistema e incidente, e in tempi più brevi in casi gravi, come morti o interruzioni critiche dell’infrastruttura – con obblighi di approfondimento e cooperazione con le autorità dopo la notifica.
La Commissione europea ha già pubblicato una bozza di linee guida e modelli di segnalazione su come applicare queste regole e ha aperto una consultazione pubblica fino a novembre 2025. (Vedi: Strategia Digitale Europea)
Indice degli argomenti:
Il nodo: AI multi-agente e limiti delle linee guida
Secondo un’opinione pubblicata su Tech Policy Press da Natàlia Fernández Ashman, Usman Anwar e Marta Bieńkiewicz, le attuali linee guida dell’UE sono inadeguate perché si concentrano su scenari di incidente causati da un singolo agente AI, trascurando casi emergenti in cui più sistemi automatizzati interagiscono e generano rischi sistemici. (Fonte: Tech Policy Press)
Gli autori avvertono che l’AI non agisce più come entità isolata: sistemi autonomi sempre più complessi reagiscono l’uno alle decisioni dell’altro, creando effetti a catena difficili da attribuire a un singolo “colpevole”.
Due esempi citati nel dibattito internazionale:
- Collusione algoritmica nei prezzi del mercato dei carburanti in Germania – dove algoritmi di pricing reagirono tra loro senza coordinamento esplicito, facendo aumentare i prezzi autonomamente.
- Il “flash crash” del 2010, in cui sistemi di trading automatico si influenzarono reciprocamente generando un rapido crollo dei prezzi: un incidente esplosivo di natura multi-sistema che un framework di segnalazione rigido faticherebbe a inquadrare.
Questi scenari mostrano che le interazioni tra sistemi AI possono provocare danni diffusi o cumulativi senza che emerga una chiara causa singola, sfidando così i criteri attuali di segnalazione.
Pericoli sistemici e responsabilità diffusa
La preoccupazione degli esperti riguarda non solo attributi tecnici, ma responsabilità normativa: quando più sistemi generano un danno collettivo, diventa complicato determinare chi debba rispondere o correggere. Questo problema è noto nella letteratura accademica sui rischi multi-agente in sistemi avanzati di AI, dove emergono fallimenti come miscoordinazione, conflitto e collusione tra agenti.
La bozza di linee guida, finora, non prevede la possibilità di considerare danni cumulativi, sistemici o legati a interazioni non lineari tra agenti AI: un vuoto che potrebbe lasciare senza segnalazione eventi che non rientrano nei criteri classici di “incidente singolo”.
Criticità nelle segnalazioni e richieste degli esperti
Un altro punto critico evidenziato dagli autori riguarda i meccanismi di segnalazione: la bozza non include percorsi strutturati per terze parti o whistleblower (denuncianti interni/esterni), limitando di fatto la visibilità di incidenti che non vengono scoperti dai provider stessi. (Fonte: Tech Policy Press)
Secondo i critici della normativa, senza canali di segnalazione indipendenti – incluso anonimato e protezione per chi denuncia – molti casi di rischio potrebbero rimanere nascosti fino a diventare veri e propri problemi sistemici.
Cosa chiedono i policy maker e il settore
Gli autori dell’op-ed e altri esperti in governance dell’AI chiedono che le linee guida:
- riconoscano esplicitamente comportamenti emergenti dovuti all’interazione tra sistemi;
- amplino la definizione di “incidente grave” includendo effetti cumulativi e sistemici;
- prevedano canali di segnalazione per terze parti e whistleblower;
- offrano strumenti di monitoraggio continuo e interventi tecnici (es. “kill switch” o circuit breaker).
In un contesto più ampio, osservatori sottolineano che il rapido avvento di agenti AI capaci di interagire tra loro rende urgente una revisione normativa – un dibattito che nel mondo politico europeo si intreccia con le discussioni sull’implementazione dell’intero AI Act e sulle risorse da dedicare alla sua applicazione efficace. (Fonte: Reddit)
Conclusione: una roadmap normativa incompleta?
Con l’entrata in vigore delle norme UE sull’AI prevista per agosto 2026, il tempo stringe per colmare questi vuoti regolatori. La sfida non è soltanto tecnica, ma istituzionale e politica: adattare il quadro legislativo a un mondo in cui sistemi AI non funzionano più come silos isolati, ma come parte di reti complesse capaci di generare rischi collettivi imprevedibili.
Riformulare l’approccio dell’articolo 73 potrebbe diventare una battaglia chiave per garantire che l’Europa non solo imponga obblighi di conformità, ma costruisca un modello di governance dell’AI resilient e responsabile.






