eventi online

AI Talk: una sola autorità di riferimento per la governance dell’AI



Indirizzo copiato

Seconda puntata de format mensile organizzato da Video Backlight in collaborazione con l’Istituto Italiano di Tecnologia, I-Com Istituto per la competitività e lo Studio legale E-Lex. Ospite istituzionale, Caterina Flick, Head of legal di Agid. Focus sull’AI Act

Pubblicato il 10 apr 2024



AI Talk

AI Talk: “L’AI Act l’UE ha il grande merito di aver iniziato e posto dei punti di partenza”. Lo ha dichiarato Caterina Flick, Head of legal di Agid nel corso della seconda puntata di AI Talk, il format online organizzato da Video Backlight in collaborazione con l’Istituto Italiano di Tecnologia, I-Com Istituto per la competitività e lo Studio legale E-Lex. “Necessario chiedersi cosa è buono e cosa non è buono in relazione all’AI. Buona è l’AI che ci permette, come Europa, di perimetrare il nostro mondo il nostro mercato dando quelle che sono le nostre indicazioni, le nostre regole”, ha aggiunto Flick. “Buona è l’AI che rispetta l’etica (ma chi decide cosa è? Chi decide quali sono i valori? Quali gli strumenti per attuarla?). Sarà necessario, però, investire in dati di qualità, in ricerca e sviluppo e in formazione di base e specialistica”.

A chiusura del suo intervento, Flick ha sottolineato che è più convincente l’utilizzo dell’AI per l’attività legislativa, meno per politiche data driven – come prendiamo i dati? come vengono raccolti?”.

AI Talk: no alla parcellizzazione delle competenze, una sola autorità di riferimento per la governance dell’intelligenza artificiale

Anche Ernesto Belisariostudio legale E-Lex, ha parlato dell’AI Act da poco approvato dal Parlamento UE: “L’AI Act è la prima norma strutturata in materia di intelligenza artificiale. Adesso ci sono alcuni passaggi procedurali, ma la norma arriverà definitivamente e dovrebbe essere vigente entro il mese di maggio con la pubblicazione nella Gazzetta Ufficiale dell’Unione Europea”.

“La norma non disciplina le intelligenze artificiali, ma gli usi che se ne fanno. Questo è un tema molto importante – ha sottolineato Belisario – probabilmente la renderà una normativa non velocemente obsoleta perché disciplina i livelli di rischio definendo degli obblighi a seconda del livello di rischio (c’è una classificazione). Vengono definiti dei contesti dove l’uso dell’AI presenta un rischio inaccettabile – e a quel punto viene vietato – da sistemi in cui il rischio è nullo. Altre due categorie di rischio, infine, sono quello elevato, per cui sono definiti un numero abbastanza rilevante di obblighi (dichiarazioni di conformità, deve essere condotta un’analisi per i rischi dei diritti e libertà fondamentali, etc) da rischi limitati”.

Concludendo, Belisario ha sottolineato come un’eventuale parcellizzazione delle competenze possa creare problemi in caso di necessità di una consultazione con diverse autorità di riferimento.

La strategia del governo sull’AI

Ha parlato della strategia del governo sull’AI, che dovrebbe concretizzarsi in un disegno di legge, Stefano da Empoli, I-Com Istituto per la Competitività: “Secondo le indiscrezioni, due dei limiti principali del primo e attuale piano strategico, licenziato nel 2021 dal governo Draghi, dovrebbero essere superati grazie a una previsione di budget dedicato, anche se non è ancora chiaro quanto sarà la spesa veramente addizionale e il modo in cui le risorse verranno ripartite, e a un meccanismo di governance che dovrebbe coordinare e monitorare l’attuazione della strategia. Comunque, da notare che le cifre complessive di cui si sta parlando sono comunque più basse del singolo investimento annunciato nei giorni scorsi da Amazon in Anthropic (2,75 miliardi di dollari). Evidente prova che solo la dimensione continentale può proiettarci sulla scala di un investimento adeguato alle ambizioni dell’UE.
Sempre a proposito di Europa, infine, dato che si sta sempre più parlando della difesa comune come di una delle missioni principali della prossima Commissione UE, la Ue ha lanciato l’idea di un DARPA che finanzi progetti sull’AI su scala continentale.

AI Talk: architetture cognitive per simulare quello che fanno gli esseri umani (per la robotica collaborativa)

In relazione alle novità tecnologiche sull’utilizzo dell’intelligenza artificiale, Linda Lastrico, dell’Istituto Italiano di Tecnologia, si è soffermata sull’AI applicata al campo della robotica collaborativa: “Nel nostro gruppo di ricerca sviluppiamo delle architetture cognitive per simulare quello che facciamo noi esseri umani. Il fine è quello di riprodurre, almeno in parte, le capacità cognitive umane. Per farlo utilizziamo un sistema robotico che, da un lato ci aiuta a progredire a livello tecnologico, e dall’altro ci aiuta a capire meglio come funziona l’intelligenza umana, creando quindi un circolo virtuoso che si autoalimenta”.

Le tecnologie per la sicurezza nazionale

Approfondimento, per il tema mercato, del settore della Difesa con Luca Iuliano, Engineering Director di Telsy (gruppo TIM) che si è soffermato sul tema della sicurezza interna ed esterna sottolineando come sia importante parlare di resilienza della nazione e quindi di tutte le infrastrutture critiche. Iuliano ha ricordato, riguardo l’utilizzo di tecnologia, che: “La sicurezza nazionale non può prescindere da una tecnologia proprietaria specie se parliamo di una disciplina, l’intelligenza artificiale, che simula il pensiero umano e la sua capacità di elaborare informazioni decisive sia per temi di resilienza nazionale che di Difesa militare”.

Utilizzare l’intelligenza artificiale per elaborare e analizzare enormi quantità di dati provenienti da un insieme di sensori differenti, quelli satellitari, oppure quelli legati a fonti di intelligence al fine di analizzarli in tempo reale. Quindi automazione di routine e manutenzione predittiva dei sistemi critici per ridurre il carico di lavoro sul personale umano e ridurre anche errori incrementando quindi l’efficienza operativa su un settore ormai sulla cresta dell’onda sul quale l’Italia tutta, in realtà, deve ancora continuare a sviluppare delle tecnologie proprietarie come quella della Cyber Defense.

La frontiera dell’AI predittiva

Luca Carabetta, Ceo di Iurely.ai e COO di PheasyAI, ha trattato il tema dell’AI predittiva: “Una delle frontiere più interessanti dell’intelligenza artificiale è l’AI predittiva. Sistemi in grado di analizzare dati storici di un sistema e quindi di ipotizzare scenari futuri. Si tratta di strumenti fondamentali per il decision making che con PheasyAI applichiamo nel mondo vendite e supply chain. Proiezioni e scenari su domanda e offerta possono migliorare sensibilmente l’efficienza di processi, con un risparmio economico diretto e immediato”.

AI Talk: Economia, Diritto, Mercato e Tecnologia, il mensile sull’IA Episodio 2
Per guardare la seconda puntata di AI Talk

Articoli correlati

Articolo 1 di 4