scenari

Addestramento AI per il traffico urbano: l’Europa sfida il monopolio tecnologico Usa



Indirizzo copiato

L’inaugurazione dell’Experience Center italiano di Milestone Systems segna un passaggio strategico per l’Europa nel campo dell’addestramento AI per il traffico urbano. Con Project Hafnia, in collaborazione con Nvidia, l’azienda promuove un modello di competitività tecnologica fondato su dati locali, conformità normativa e partnership pubblico-private

Pubblicato il 27 ott 2025



addestramento-ai-per-il-traffico-urbano-ai4business

La carenza di manodopera nel settore sanitario, nelle forze dell’ordine e nell’hospitality sta accelerando l’adozione di sistemi di AI analytics basati su video. Ma l’Europa ha un’opportunità strategica che va oltre l’automazione: costruire competitività tecnologica globale attraverso partnership pubblico-private, dataset verticali e conformità anticipata alle normative. È in questo scenario che si inserisce Milestone Systems, che con l’inaugurazione del nuovo Experience Center italiano e la presentazione di Project Hafnia — iniziativa sviluppata insieme a Nvidia — propone un nuovo paradigma per l’addestramento AI per il traffico urbano, fondato su dati europei anonimizzati e compliance normativa nativa.

Il gap competitivo europeo secondo Draghi

«L’Europa non ha qualcosa per controbattere. Non abbiamo qualcosa per renderli dipendenti dal riacquistare da noi», ha dichiarato il CEO di Milestone Thomas Jensen riferendosi al rapporto sulla competitività pubblicato da Mario Draghi, che sottolinea il ritardo europeo nell’innovazione tecnologica rispetto a Stati Uniti e Asia. Il dominio di Microsoft e Google nei modelli AI rappresenta una sfida strutturale per il continente.

«È nostra speranza che questo sia il momento dell’Europa per costruire quel livello di competitività, innovazione e forza», ha aggiunto Jensen. La strategia proposta si basa su tre pilastri: dati locali europei, tecnologia europea e modelli contrattuali di collaborazione pubblico-privato che garantiscano sia l’innovazione sia la protezione dei diritti dei cittadini.

Genova: 1,2 Petabyte di dati per addestrare modelli verticali

A giugno 2025, la città di Genova ha siglato un accordo che prevede la licenza d’uso di tutti i dati sul traffico raccolti da circa 2.000 telecamere della videosorveglianza cittadina. «Attualmente, la quantità di dati che stiamo acquisendo è di circa 1,2 Petabyte», ha specificato Jensen, precisando che si tratta dei dati già raccolti e attualmente in fase di catalogazione.

Il processo di messa a punto prevede la categorizzazione di milioni di veicoli: tipo (auto, motocicletta, motorino, furgone, camion, taxi), colore, veicolo privato o commerciale, numero di pedoni, presenza di incidenti stradali. «Dobbiamo costruire analitiche per analizzare cosa ha causato l’incidente stradale, in modo da poter anche aiutare a costruire la sicurezza stradale in futuro», ha spiegato il CEO. La timeline prevede il completamento della curatela entro fine 2025.

Ivan Piergallini, Sales Director per Italia e Iberia, ha precisato che non sono state utilizzate tutte le registrazioni della città: «Hanno semplicemente scelto le aree di traffico, le intersezioni specifiche, e abbiamo preso alcune registrazioni solo per addestrare i modelli».

Dataset verticali: una scelta strategica

L’approccio scelto privilegia la specializzazione estrema rispetto alla generalizzazione. «Invece di avere modelli generici dove puoi fare tutto, ci stiamo concentrando su verticali», ha spiegato Jensen. Il traffico urbano rappresenta il primo verticale, seguito in futuro da sanità, istruzione, hospitality, retail e stadi.

«Se l’Europa possiede il miglior modello AI quando si tratta di sviluppo urbano, chiunque altro nel mondo deve addestrarsi anche sui nostri dataset», ha affermato Jensen, delineando la visione strategica del progetto: trasformare lo svantaggio competitivo europeo in un asset globale.

Deep Natural Anonymization: oltre la sfocatura tradizionale

Il progetto si basa su una tecnologia di anonimizzazione avanzata che supera i limiti della privacy-by-obscuration tradizionale. «La sfida con l’anonimizzazione o lo blurring è che non puoi più vedere il volto o non puoi vedere una targa. Per l’addestramento dell’AI, non puoi più addestrare su un volto che è sfocato», ha spiegato Jensen.

La tecnologia altera sinteticamente le caratteristiche del volto e modifica le targhe mantenendone la configurazione originale. «Se è una targa italiana, avrà ancora la stessa configurazione di una targa italiana, ma non sarà mai la vostra», ha illustrato Jensen. Il sistema garantisce che «se la confrontate con tutti i dati di imaging su Internet, non ci sarà mai una corrispondenza».

Questo approccio permette di rispettare il GDPR e l’AI Act (in vigore da agosto 2024) mantenendo l’utilità dei dati per l’addestramento. «Abbiamo avuto avvocati europei per la data privacy e avvocati AI che ci hanno consultato su come abbiamo costruito questo contratto di licenza per i dati», ha sottolineato Jensen. I dati rimangono di proprietà della città di Genova e vengono conservati in data center nei Paesi Bassi, senza trasferimenti extra-UE.

Dati reali vs sintetici: minimizzare i bias

Alla domanda sul perché non utilizzare esclusivamente dati sintetici, Jensen ha evidenziato la necessità di combinare dati sintetici e dati reali per ottenere accuratezza. «Per minimizzare il bias, abbiamo bisogno di vaste quantità di dati».

Un altro aspetto critico riguarda i bias ottici: «La tecnologia della fotocamera e la tecnologia video hanno una preferenza per le persone con un colore della pelle più chiaro rispetto alle persone con un colore della pelle più scuro, semplicemente perché la luminosità è molto diversa». I dati sintetici permettono di correggere gradualmente queste distorsioni.

Casi d’uso: dalla risoluzione crimini alla sanità

Jensen ha illustrato applicazioni concrete già operative. Negli Stati Uniti, un distretto di polizia ha utilizzato l’AI analytics per identificare attività di spaccio: «Hanno preso il video di 24 ore, l’hanno fatto passare attraverso il sistema BriefCam e in 3 minuti e mezzo, il detective della polizia sapeva esattamente dove veniva spacciata la droga».

Il sistema ha individuato un pattern: le stesse persone si spostavano tra due case diverse. «Quello che hanno capito è che i criminali stavano diventando più furbi per evitare di ottenere la peggiore pena. I clienti andavano in una casa a pagare e in un’altra casa a ritirare», permettendo alla polizia di ottenere mandati per entrambe le abitazioni.

In ambito sanitario, i modelli addestrati riconoscono se un paziente cade dal letto in tempo reale. «Non abbiamo abbastanza infermieri. La maggior parte degli infermieri dicono che vorrebbero prendersi più cura dei pazienti, non monitorare i pazienti», ha spiegato Jensen. Gli alert automatici riducono i tempi di intervento: «Le esigenze di riabilitazione e il costo per le società aumentano esponenzialmente con il tempo che intercorre tra l’identificazione del danno e la cura».

Alle Olimpiadi di Parigi 2024, il sistema ha gestito i flussi di spettatori attraverso linee virtuali di non attraversamento. «Non potevano costruire recinzioni ovunque. Quindi, invece, avevano creato linee virtuali nel sistema». Se qualcuno attraversava, scattava un allarme automatico per il personale di sicurezza presente.

Human-in-the-loop: la supervisione umana obbligatoria

Tutti i sistemi presentati prevedono la verifica umana come requisito non negoziabile. «In tutte le nostre applicazioni AI che sono critiche, richiediamo umani nel loop», ha dichiarato Jensen. «Se si tratta di polizia e riconoscimento facciale, chiediamo che ci sia un detective della polizia che fa la verifica finale».

L’approccio si estende anche ai contratti: «Mettiamo clausole sui diritti umani nei contratti che abbiamo con i nostri partner. Siamo trasparenti su come i nostri prodotti possono essere utilizzati e quando non possono essere utilizzati».

Line Bang Riecke Hjardemaal, Sales Director Western Europe, ha aggiunto: «Stiamo lavorando molto per essere pronti per tutte le certificazioni. È super importante per noi rimuovere la complessità per i nostri clienti». Le certificazioni EUCC (EU Common Criteria) e CPN saranno disponibili nel 2026, permettendo di dimostrare conformità attraverso loghi invece di lunghe conversazioni tecniche.

Il modello partner-driven e l’investimento in Italia

L’approccio commerciale prevede che il 100% delle vendite avvenga attraverso il canale. «Non installiamo mai sistemi noi stessi. Non lo faremo mai. Il valore del canale è semplicemente troppo grande», ha affermato Jensen. In Italia, l’azienda opera attraverso 7 distributori (locali e globali) e centinaia di partner certificati.

Ivan Piergallini ha sottolineato l’importanza dell’investimento locale: la presenza italiana è iniziata 23 anni fa con una sola persona e oggi conta 17 membri del team. «Quando parliamo con le città, non è una semplice conversazione commerciale. Stiamo parlando di come possiamo lavorare insieme per i prossimi 5, 10, 15, 20 anni», ha spiegato.

L’apertura dell’Experience Center risponde proprio a questa logica: «È un luogo dove possiamo lavorare insieme, sia con i nostri partner che con i nostri clienti, per progettare insieme», ha dichiarato Piergallini. Il centro ospita sessioni di co-progettazione dove partner e clienti possono testare configurazioni prima dell’implementazione.

Espansione geografica: 3-5 città europee in trattativa

Oltre a Genova e una città statunitense da 65.000 abitanti già coinvolte, Jensen ha rivelato che sono in corso trattative con 3-5 città europee significative, senza specificarne i nomi per riservatezza contrattuale. Le città candidate si trovano in Europa meridionale (non Italia), Europa settentrionale e una città extra-UE ma in territorio europeo.

L’obiettivo dichiarato è costruire il più grande dataset di incidenti stradali video-based al mondo entro i prossimi anni, ponendo le basi per espandere l’addestramento AI per il traffico urbano ad altri verticali dove la carenza di manodopera rappresenta una sfida critica.

Articoli correlati