Eventi

AI360 Summit: intelligenza artificiale e machine learning sono realtà

Casi applicativi reali e un interessante confronto su metodi, competenze e nuove professioni: la prima edizione di AI360 Summit porta in scena lIntelligenza Artificiale che diventa valore di business

Pubblicato il 25 Giu 2019

tavola rotonda ai360summit

Alla sua prima edizione, AI360 Summit aveva un obiettivo ben chiaro: ridurre, dove possibile, l’hype sull’intelligenza artificiale per mettere in luce piuttosto le esperienze reali, i casi concreti di applicazione, quelli nei quali l’AI non è solo una promessa, ma già offre opportunità concrete di miglioramento di processi esistenti o di abilitazione di nuovi servizi.
Una concretezza che si esplicita a partire dalla sede scelta per ospitare l’evento, il MUHMA, il Milano Luiss Hub for Makers and Students nato dall’impegno condiviso tra Fondazione Giacomo Brodolini, Luiss Guido Carli, ItaliaCamp in partenariato con il Comune di Milano, uno spazio polifunzionale dedicato alla manifattura e alla creatività digitali, allo sviluppo di impresa, all’imprenditorialità 4.0 e che da qualche tempo è diventato anche la sede della prima Casa della Robotica e delle Intelligenze Artificiali promossa da un team di innovatori e professionisti, in primis Massimo Temporelli, divulgatore scientifico e presidente di TheFabLab.

Pepper presenta Domorobo durante AI360Summit

Pepper presenta Domorobo durante AI360Summit

Guarda questo video su YouTube

Lo scenario, secondo l’Osservatorio Artificial Intelligence

AI Summit360
Alessandro Piva, Direttore Osservatorio Artificial Intelligence

In apertura dei lavori, spetta tuttavia ad Alessandro Piva, direttore dell’Osservatorio Artificial Intelligence del Politecnico di Milano, fare il punto sul mercato, non solo sugli aspetti dimensionali, quanto sulle progettualità in corso e sul loro impatto sul business e sui suoi modelli.
Per Piva stiamo parlando di un mercato che al momento vale 85 milioni di euro, tra hardware software e servizi e nel quale, tutto sommato, le imprese italiane sono meno fanalini di coda di quanto siamo abituati a pensare.
In questo momento, in particolare nell’ambito delle aziende di medie e grandi dimensioni, le realtà che possiamo definire scettiche e riluttanti sono davvero in minoranza: solo il 9% dichiara infatti di non avere nel proprio orizzonte alcuna iniziativa nell’ambito dell’Intelligenza Artificiale, mentre un 19% d imprese si lascia aperto lo spazio per qualche attività futura. Oltre il 50% delle aziende sta dunque muovendo i primi passi, tra idee progettuali, progetti pilota, progetti in implementazione e progetti a regime. Questi ultimi, è facile intuirlo, sono minoritari ma rappresentano comunque il 12% del campione preso in esame dagli Osservatori.

Poco mature le imprese italiane

Ma non bastano i numeri.
Piva Analizza anche quello che definisce “il livello di maturità” che porta le aziende tradizionali a diventare vere e proprie “AI Company” lavorando su dati, metodologie, competenze, organizzazione, cultura, relazioni con i clienti.
Sotto questo profilo, emerge che il 45 per cento delle imprese può essere considerato “in ritardo”: dispone cioè di una infrastruttura per la raccolta e la gestione dei dati, ma la qualità e la quantità di dati disponibili non sono certo sufficienti per far partire progetti concreti.
A queste aziende in ritardo, si affianca un 23 per cento di realtà che Piva definisce “in cammino”, che hanno cioè una buona capacità di dominare le tecnologie AI, mostrano attenzione all’impatto che queste possono avere sull’organizzazione e sulla cultura aziendali e sono già impegnate nel preparare i clienti a prodotti e servizi AI.
Sono il 12% le medie e grandi aziende che l’Osservatorio definisce “apprendisti”, che mostrano cioè una conoscenza approfondita di algoritmi e metodologie e sviluppano algoritmi in modalità stand-alone, mentre sono il 10% gli “entusiasti” che dispongono e usano prevalentemente dati proprietari e soluzioni standard offerte dal mercato.
Pochi, solo il 4%, i cosiddetti “organizzati”, che prestano grande attenzione all’organizzazione, alle competenze interne, al cliente, per poi passare in una fase successiva ad affrontare gli aspetti tecnologici dell’AI, mentre gli avanguardisti, un 6% di imprese che si sono mosse prima di tutti, prima degli altri, in realtà sono tra quelle che ancora non hanno raggiunto una adeguata maturità rispetto al tema.
Spiega Piva: “Tutto sommato, se pure non vi è un particolare ritardo rispetto alle loro omologhe europee, le aziende italiane sono ancora abbastanza immature rispetto all’AI. Prevale in genere un approccio empirico: il percorso inizia dai dati e prosegue con l’approfondimento di metodologie e algoritmi. In realtà, bisogna lavorare molto sugli aspetti organizzativi, sulla cultura aziendale e sulla relazione con il cliente, che sono gli aspetti in cui le aziende sono mediamente più indietro, ma che non vanno sottovalutati per la buona riuscita del progetto”.

Ellysse: chatbot per migliorare il customer service

Il primo caso di applicazione concreta dell’Intelligenza Artificiale nel mondo del business viene presentato da Marco Lunghini – Direttore Commerciale di Ellysse.
In questo caso parliamo di una vera e propria trasformazione di un prodotto, anzi, di un servizio, grazie all’utilizzo di Machine learning e intelligenza artificiale.
Società specializzata nello sviluppo di soluzioni di Contact Center, grazie all’AI e in particolare all’integrazione di bot nelle proprie piattaforme, Ellysse consente ai propri clienti di garantire nuovi e più soddisfacenti livelli di experience.
Lunghini sottolinea come proprio il mercato degli assistenti virtuali rappresenti oggi un traino importante per lo sviluppo delle tecnologie di Intelligenza Artificiale e ne spiega i vantaggi nel mercato specifico dei contact center: “Grazie ai bot basati su sistemi di Machine Learning e di Intelligenza Artificiale, noi siamo in grado di offrire una nuova customer experience, dando ai nostri clienti la garanzia e di conseguenza la tranquillità di poter trasferire automaticamente la chiamata o la richiesta a un operatore umano qualora il bot non sia in grado di dare immediata risposta o di comprendere la richiesta del cliente. Il chatbot altro non è che una interfaccia automatica addestrata per dare informazioni o gestire richieste senza supporto umano. Il vantaggio è che si tratta di uno strumento disponibile in modalità H24 sette giorni su sette, utilizzabile su molteplici canali e dunque adatto a tutte le forme di interazione che il cliente sceglie”.
Il bot migliora e supera l’esperienza garantiti dai tradizionali servizi di risponditore automatico, basati su alberi di navigazione e comandi a tono, introducendo concetti avanzati di semantica, ontologia, machine learning, lemmatizzazione, part of speech, Intent, riconoscimento del linguaggio naturale (NLP), Intelligenza Artificiale.
Proprio a partire da queste caratteristiche, Lunghini tocca un tema cruciale: quello delle competenze.
Perché non basta saper trattare dati e algoritmi, in questo caso servono figure professionali nuove.
“Per addestrare un bot serve una nuova figura professionale con competenze umanistiche e linguistiche”, spiega, sottolineando come anche la scelta del bot più adatto alle proprie esigenze richieda particolare attenzione.
“Bisogna creare un training set, per testarne le capacità di comprensione e bisogna soprattutto entrare in una logica di active learning: se integrato con il contact center, il bot continua ad apprendere ed è sempre più efficace nella proprie risposte”.
Non siamo di fronte a strumenti di sostituzione, bensì di empowerment: consentono una gestione autonoma e automatica delle richieste degli utenti, in particolare quelle standard e ripetitive, lasciando all’operatore umano la gestione delle mansioni più complesse per le quali sono richieste competenze e capacità specifiche.

Due case history: Alia e Infocamere

A dimostrazione di quanto sia concreto l’impegno, Lunghini porta le case history di due clienti di Ellysse.
La prima è Alia Servizi Ambientali. Società che ha in affidamento il servizio di gestione integrata dei rifiuti urbani e assimilati in Toscana Centro, su un territorio compreso tra le province di Firenze, Prato e Pistoia: 58 comuni per 1,5 milioni di abitanti.
“Alia – spiega Linda Mori, Responsabile Customer Care di Alia Servizi Ambientali – implementerà sul proprio sito web una Chatbot conversazionale interattiva disponibile dunque in modalità 24 x 7 che offra supporto self-service agli utenti, per aiutarli a trovare informazioni sullo smaltimento dei rifiuti ingombranti, fino ad arrivare al ritiro degli stessi. Con questo strumento, che rende di fatto il cittadino autonomo, dal momento che la macchina è in grado di riconoscere le richieste e le può gestire fino all’appuntamento, ci siamo posti l’obiettivo di ridurre del 20% le chiamate vocali ai nostri call center”.
Per Mori non si tratta di una sostituzione dei servizi offerti dagli operatori umani, ma di un affiancamento, che soprattutto in una prima fase richiederà un buon percorso di “allenamento”, dal momento che sarà necessario “insegnare” al chatbot modi di dire, inflessioni e unicità della parlata toscana.

È invece già operativo il chatbot di cui si avvale Infocamere, come racconta Fabio Romano, Responsabile servizi di assistenza e contact center della società.
“Infocamere sviluppa soluzioni per semplificare il rapporto tra imprese e PA e nelle nostre logiche di caring il digitale ha un ruolo chiave. Oggi, per noi, Intelligenza Artificiale e Machine Learning sono di fatto tecnologie abilitanti, che ci consentono di portare a nuovi livelli il nostro modello di assistenza”.
In particolare, per Infocamere il progetto prevede l’integrazione di un chatbot a supporto dei servizi di accesso con Carta Nazionale dei Servizi ai propri portali.
“L’obiettivo è aumentare l’efficienza operativa innalzando il livello di automazione, lasciando alle risorse umane le attività a maggiore valore aggiunto”.
Naturalmente, spiega Romano, la scelta è stata quella di partire su un ambito circoscritto e definito, con l’obiettivo di ridurre le complessità, con un bot integrato nella piattaforma di multicanalità di Infocamere.
“Il sistema consente il passaggio dal bot all’operatore in modalità livechat o call me now in caso di difficoltà. Il bot viene istruito attraverso l’esperienza di supporto dell’operatore e abbiamo scelto di mantenere un giusto mix tra componente conversazionale e componente «a bottoni», per aumentare l’efficacia e minimizzare il rischio di rigetto. Il tutto, va da sé, con una introduzione graduale su un gruppo ristretto di utenti per poter ben testare lo strumento”.

TIM: lavorare sui dati per migliorare gli algoritmi

Parla di casi applicativi concreti anche Gianluca Francini – Responsabile del Joint Open Lab sull’Intelligenza Artificiale di TIM.
Un punto di vista interessante, quello di Francini, che affronta il tema del Machine Learning sia dal punto di vista di chi, attraverso il Lab ristituito ormai 5 anni fa in collaborazione con il Politecnico di Torino, sta facendo ricerca e sperimentazione, sia da quello di chi utilizza Machine Learning e AI per obiettivi di business specifici.
Machine Learning e AI che hanno bisogno di grandi molti di dati, per poter dare risultati attendibili e significativi e che proprio per questo hanno bisogno di “dati giusti”.
“I sistemi di intelligenza artificiale – spiega – hanno bisogno di derivare modelli dai dati. Ma i dati devono essere disponibili in quantità sufficiente a risolvere il problema, devono contenere valori corretti, devono essere facilmente accessibili e consistenti e dotati di tutte le informazioni necessarie, vale a dire tag e metatag”.
Gli ambiti applicativi?
Molteplici, dal punto di vista di TIM: “Già il 5G – spiega Francini – significa mettere in campo nuove reti, flessibili e riconfigurabili via software: le grandi quantità di dati provenienti dagli apparati ci consentono di ottimizzare operation e interventi manutentivi. Per non parlare Customer Service: anche nel nostro caso, AI e Machine Learning possono essere di grande aiuto nel miglioramento e nella semplificazione delle interazioni con i nostri clienti”.

Injenia: dall’Intelligenza collettiva all’intelligenza artificiale

Un interessante contributo alla riflessione su sul ruolo del Machine Learning e in particolare sul rapporto con l’intelligenza umana viene da Cristiano Boscato – Amministratore Injenia e Docente Bologna Business School corso Artificial Intelligence e Machine Learning for Business.
Nella visione di Boscato, non si arriva a parlare di Intelligenza Artificiale o Machine Learning ex abrupto.
Ci vuole una certa vocazione e non è un caso che Boscato parli di aziende “naturogiche”, ovvero “naturalmente tecnologiche”.
E prima ancora di parlare di Intelligenza Artificiale sarebbe bene praticare un po’ di intelligenza collettiva, ovvero quella capacità propria delle comunità umane “di evolvere verso una capacità superiore di risolvere problemi, di pensiero e di integrazione attraverso la collaborazione e l’innovazione”.
E si arriva al punto: non si può parlare di Machine Learning efficace senza il contributo umano; “Il Machine Learning è uno strumento in grado di potenziare l’intelligenza delle persone. Ma per essere efficace, non bastano potenti algoritmi: servono le persone, le sole con la conoscenza adeguata a trovare la giusta soluzione ML che risponda alle reali esigenze del business”.
Per questo Boscato arriva all’assioma: “Human is for innovation, AI is for optimisation”. Le persone sono e devono essere al centro dei processi di Machine Learning e non potrebbe essere diversamente se si pensa alle applicazioni di Natural Language Processing, di Image Recognition, di Analisi strutturata dei dati. Un Digital Twin in un’accezione differente rispetto a quanto ci ha abituato il mondo industriale, ma che assegna all’uomo un giusto ruolo e una giusta centralità.

Energy, Oil e ceramiche: tre case history per Injenia

Anche per Injenia arriva il momento dei casi applicativi reali e Boscato porta tre case history già realizzate.
La prima, sviluppata nel mondo energy, ha portato a sviluppare un sistema di analisi automatizzata su anomalie e criticità presenti sulla rete infrastrutturale grazie all’analisi di oltre 65000 fotografie aeree giornaliere. “Un progetto di recognition per immagini che garantisce non solo una maggiore velocità rispetto ai sistemi tradizionali, ma soprattutto una accuratezza superiore dell’85% rispetto a quella dell’operatore umano”.
Una seconda case history è stata sviluppata nel settore Oil & Gas con l’obiettivo di creare un servizio a supporto degli operatori tecnici, ottimizzando il processo di ricerca documentale in termini di rilevanza e precisione delle risposte fornite mediante tecniche di Natural Language Processing (NLP) in ambito di text recognition. Risultato? Triplicata l’efficienza, quadruplicata la velocità nella ricerca dei documenti, ridotti del 66 per cento i costi.
La terza case history riguarda il mondo manifatturiero e in particolare una realtà del mondo delle ceramiche.
In questo caso, l’obiettivo era ridurre i lotti produttivi dal mercato e ottimizzare le fasi di setup per i lotti successivi. In questo caso, grazie all’utilizzo combinato di industrial IoT, algoritmi e App mobile, sono stati raggiunti gli obiettivi attesi in termini di velocità di implementazione, riduzione degli scarti, miglioramento complessivo della qualità.

Tavola rotonda: quale futuro per il data scientist?

La tavola rotonda, cui hanno preso parte Luca Flecchia, Data-Driven Innovation Practice Leader, P4I – Partners4Innovation, Stefano Gatti – Head of Data & Analytics di Nexi, Alessandro Giaume, Director Innovation di Ars et Inventio, Bip e coautore insieme a Gatti del libro AI Expert – Architetti del Futuro, edito da Franco Angeli, e Mohammed Omrani, IT Manager, Kelly Services aveva l’obiettivo di fare il punto da un lato ancora sulle sfide e sulle opportunità dell’Intelligenza Artificiale nelle imprese, dall’altro sugli impatti in termini di organizzazioni e competenze.
In effetti, dopo la premessa di Luca Flecchia, che sottolinea come “avere dati affidabili e di qualità è tema sempre più rilevante” i discussant si sono confrontati vivacemente su due questioni nodali.
La prima è quella della Readyness: “Finalmente abbiamo dati in quantità sufficiente per supportare le richieste dell’AI. Possiamo parlare di organizzazioni algoritmiche”, come le definiscono Giaume e Gatti. Ma siamo davvero pronti?
E per un Omrani che spiega come all’interno di Kelly Services l’adozione del Machine Learning sia avvenuto e stia tuttora avvenendo in modo graduale e strutturato, Giaume sottolinea con fermezza la necessità di un approccio agile, tutto focalizzato sui dati.
La seconda questione nodale riguarda i profili professionali e, in particolare, la figura del data scientist.
Considerata la centralità dei dati, è altrettanto centrale anche questa figura professionale?
Gatti, che racconta come nel mondo Finance, dove AI e ML trovano ampia applicazione in attività di fraud detection e credit scoring, gli algoritmi necessitano di una “spiegabilità” che deve essere mediata da un essere umano e nello specifico da un data scientist.
Non è di questo avviso Giaume, che sottolinea come oggi sia più importante avere critical thinking, capacità trasversali e di problem solving: per questo col tempo il ruolo del data scientist verrà meno, proprio per l’evolversi delle tecnologie.

Colmare il vuoto legislativo

L’ultimo tema affrontato nel corso del Summit è quello legislativo. Ed è ad Anna Italiano, Senior Legal Consultant di P4I – Partners4Innovation, che è toccato il compito di evidenziare quale sia il vuoto normativo nel quale ci muoviamo.
Nel momento in cui un numero crescente di decisioni viene supportato da automatismi o da algoritmi, è probabilmente il caso di colmare la lacuna.
Si ipotizza la possibilità di creare una sorta di Responsabilità Civile anche per i sistemi di AI dotati di algoritmi di machine learning e deep learning, così come è importante “favorire e promuovere il dibattito sulla sicurezza dei sistemi di IA e sull’intelligenza artificiale etica” sia dalla prospettiva tecnologica (per promuovere la sicurezza by design) sia dalla prospettiva culturale, che tocca ogni singolo cittadino, anche chi con la tecnologia non ha nulla a che vedere, se non come fruitore.

Domorobo: una casa anche per le nuove intelligenze

A chiusura dei lavori, Massimo Temporelli coglie l’occasione per la presentazione ufficiale di Domorobo: “Un luogo di divulgazione scientifica per fare incontrare le intelligenze artificiali con i cittadini. Una casa per questi nuovi esseri, cui vogliamo dare nuova dignità”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4