Alla ricerca di un sistema operativo “cognitivo”

Orchestrare tecniche diverse per creare una generazione di Intelligenza Artificiale tutta nuova

Pubblicato il 02 Lug 2019

Blade Runner

“Io ne ho viste cose che voi umani non potreste immaginarvi:

navi da combattimento in fiamme al largo dei bastioni di Orione,

e ho visto i raggi B balenare nel buio vicino alle porte di Tannhäuser. 

E tutti quei momenti andranno perduti nel tempo, come lacrime nella pioggia.
È tempo di morire.” (Blade Runner, 1982)

Mi è impossibile evitare la pelle d’oca ogni volta che ascolto il soliloquio in punto di morte, di Roy Batty, il replicante magistralmente interpretato da Rutger Hauer, nel film-capolavoro di Ridley Scott (Blade Runner).

Ma mentre Ridley Scott ha toccato la perfezione con Blade Runner, nella realtà, considerando l’attuale livello evolutivo delle tecnologie legate all’Intelligenza Artificiale, siamo ancora molto lontani dall’essere in grado di produrre replicanti di alcun genere.

L’industria cinematografica, insieme al grande clamore derivato dai tanti recenti successi raggiunti da tecnologie come il Deep Learning, hanno avuto un grande riscontro emozionale nella gente con la conseguenza di produrre percezioni e aspettative spesso distorte sull’Intelligenza Artificiale, su ciò che realmente è e può fare per noi.

L’Intelligenza Artificiale è un campo di studi volto a comprendere e sviluppare comportamenti intelligenti, da implementare attraverso sistemi hardware e software, che siano in grado di imitare ed espandere abilità tipicamente umane.

Per adempiere alla propria missione, l’Intelligenza Artificiale si avvale di numerose tecniche di Machine Learning, un sottoinsieme di studi focalizzato allo sviluppo di sistemi software che abbiano la capacità di imparare dai dati. Il Deep Learning attualmente, è di gran lunga la tecnica di Machine Learning che ha raggiunto i risultati più promettenti ed eclatanti in un vastissimo numero di applicazioni pratiche come, ad esempio, nel riconoscimento di immagini e audio e nella traduzione in tempo reale del linguaggio naturale parlato.

L’esplosione di offerta sui personal voice assistant come Siri di Apple o Alexa di Amazon è una delle tante dimostrazioni delle incredibili possibilità offerte oggi dagli algoritmi di Machine Learning e dai nuovi mercati che ne derivano. Il riconoscimento intelligente di immagini si è talmente evoluto che ha superato le capacità di riconoscimento umane già nel 2015, dando luogo a un’ondata di nuovi sviluppi applicativi in quasi tutti i settori di mercato. Per esempio nel settore della sicurezza con il riconoscimento in tempo reale di persone e oggetti potenzialmente pericolosi, o in campo medico con l’analisi di ogni tipo di materiale radiografico per l’identificazione di tumori e altre patologie, fino a sorprendenti applicazioni nel settore agricolo che permettono l’identificazione di organismi infestanti su aree coltivate e foreste a partire da immagini satellitari e la conseguente attivazione di droni specializzati capaci di irrorare autonomamente le zone identificate, con disinfestanti appropriati e precisione chirurgica.
E l’unione fa la forza: combinando diverse tecniche specializzate di Intelligenza Artificiale, si possono raggiungere traguardi quasi fantascientifici con sistemi ultra-complessi come quelli rappresentati dai veicoli a guida autonoma.

Deep Learning, ancora diversi limiti da superare

Il termine Deep Learning è così popolare che viene spesso usato al posto di Machine Learning e addirittura di Intelligenza Artificiale, ma essenzialmente, è una tecnica statistica per imparare a identificare e a classificare schemi ricorrenti a fronte di sessioni di apprendimento effettuate su grandi quantità di dati.

Ed è proprio nella fase di formazione che i limiti del Deep Learning si fanno più sentire: occorre una quantità enorme di dati, coerenti e correttamente etichettati, e lunghe sessioni di training prima che un algoritmo di Deep Learning sia in grado di riconoscere in maniera affidabile oggetti e forme da immagini mai viste prima.

Ma nel mondo reale, disporre di grosse quantità di dati di qualità correttamente classificati, non è sempre possibile né tantomeno economico e i problemi di classificazione da affrontare non sono sempre così netti e definiti come quelli utilizzati in ambiti accademici o di ricerca.
Senza significative quantità di dati adatti alla formazione, la capacità degli algoritmi di Deep Learning di generalizzare gli schemi ricorrenti identificati nelle fasi di training, riconoscendoli all’interno di dati nuovi (per esempio immagini) mai analizzati prima, si riduce drasticamente.

E la capacità di generalizzazione è la caratteristica fondamentale di ogni algoritmo di Machine Learning e quella che ne determina le prestazioni.
Deep Mind di Google e i suoi algoritmi hanno portato le capacità del Deep Learning a livelli prestazionali senza precedenti: nel 2016, il programma AlphaGo ha battuto il campione in carica, umano, al gioco Go, un classico gioco di strategia cinese.
Ma anche per sistemi così evoluti, che rappresentano lo stato dell’arte del Machine Learning, la capacità di generalizzare i concetti appresi in situazioni nuove non è così automatica: se lo stesso AlphaGo dovesse giocare su una scacchiera da 21 caselle di lato, invece delle classiche 19, non sarebbe in grado di adattare autonomamente gli schemi acquisiti al nuovo contesto e dovrebbe ricominciare tutto il training da capo.

Al Deep Learning mancano ancora i meccanismi per imparare ad astrarre i concetti: non dispone cioè di una creatività autonoma e non è in grado di sviluppare spontaneamente nuove ipotesi da fatti (dati) non evidenti o in situazioni nuove che producono dati significativamente diversi da quelli visti ed utilizzati durante le fasi di apprendimento. Ne consegue una limitata capacità di deduzione a partire dalle situazioni complesse che il mondo reale offre.

Molte sono le iniziative in corso che hanno l’obiettivo di superare gli attuali limiti del Deep Learning. E spesso, queste iniziative derivano da intuizioni scaturite dalle neuroscienze e dall’attenta osservazione del funzionamento del cervello umano, che rappresenta, di fatto, l’unico esempio che abbiamo e a cui possiamo far riferimento, nel tentativo di riprodurre artificialmente l’intelligenza e la capacità di apprendere e generalizzare i concetti.

Deep learning, reti neurali e cervello umano

Il Deep Learning stesso si basa su reti neurali che sono certamente ispirate, come vedremo nei prossimi articoli, al funzionamento dei neuroni biologici del cervello umano. Ma le analogie non si fermano qui: altri studi mirano a sviluppare versioni artificiali di un’altra componente fondamentale del nostro cervello: la memoria. I Differentiable Neural Computer o DNC, sono essenzialmente sistemi composti da una rete neurale dotata di componenti in grado di memorizzare informazioni generate da elaborazioni precedenti e capace di imparare ad utilizzarle per svolgere compiti nuovi in maniera sempre più indipendente.

Ma anche considerando gli incredibili sviluppi degli ultimi anni, i problemi che sono meno legati alla classificazione di oggetti e più vicini al ragionamento e al senso comune, rimangono, per il momento, al di fuori delle capacità del Deep Learning. Gli esseri umani sono in grado di distillare conoscenza integrando enormi quantità di informazioni in qualunque forma, da numerosissime fonti e in molti domini diversi e per questo, le nostre capacità rimangono anni luce avanti anche alle implementazioni più evolute di modelli di Deep Learning.

Questo però non significa che il Deep Learning non sia all’altezza della fama che si è faticosamente conquistato: di fatto oggi, fornisce l’intelligenza alla maggior parte delle tecnologie smart che ci circondano, aggiungendo quel tocco magico che assomiglia così tanto alle capacità che solo fino a poco tempo fa erano appannaggio esclusivo della razza umana.

Il vero problema del Deep Learning è forse da ricercarsi nell’incomprensione su cosa realmente sia e possa fare per noi: invece di guardare al Deep Learning come a una tecnologia in grado di fornirci ‘Pure AI’ di cui i replicanti di Blade Runner erano abbondantemente equipaggiati, dovrebbe essere immaginata come ad una componente, senz’altro evoluta e sofisticata, di un’architettura molto più ampia, non solo in grado di imparare autonomamente dai dati ma anche in grado di accedere a una memoria di lungo termine e alle moltissime regole che governano le conoscenze di base e gli istinti che il genere umano ha ereditato da milioni di anni di evoluzione e che contribuiscono a determinare le nostre straordinarie capacità cognitive.

Verso un sistema operativo cognitivo

Mi piace quindi pensare che nonostante i molteplici e validissimi progressi in campo di AI, Machine Learning e Deep Learning, quello che ancora manca sia un’architettura generale, una sorta di sistema operativo che mettendo insieme tutte le varie tecniche specializzate, sia in grado di orchestrarne le capacità che ne derivano fornendo un’intelligenza artificiale molto più vicina a quella umana.

Un sistema operativo cognitivo per una nuova generazione di Intelligenza Artificiale.

Non sono in grado di dire se quando avremo raggiunto un tale stadio evolutivo saremo in grado di viaggiare al largo dei bastioni di Orione o di giocare con i raggi B vicino alle porte di Tannhäuser.

Ma se fosse, sono sicuro che a quel punto, nessuno di quei momenti andrà perduto come lacrime nella pioggia.

***

Michele Vaccaro, Solution Consultant Director Europe South, Italy, Switzerland and Austria at OpenText

*Michele Vaccaro è Solution Consultant Director Europe South, Italy, Switzerland and Austria, di OpenText

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2