Modelli ibridi per l’intelligenza artificiale, verso la comprensione del deep learning

La promessa e la scommessa dei modelli neuro-simbolici è di riuscire a gestire il ragionamento astratto e la capacità di generalizzare un modello a più domini applicativi, unendo più approcci. La comprensione dei modelli di deep learning, la loro trasparenza e l’interpretabilità sembrano destinati a passare per i modelli ibridi.

Pubblicato il 24 Mar 2022

Paolo Dotti

Quence - TXTGROUP

intelligenza artificiale pro e contro

Corsi e ricorsi della storia; a volte scenari del passato si ripropongono in contesti attuali. È il caso questa volta di un contesto tecnologico innovativo. Stiamo parlando di intelligenza artificiale agli albori o “classica” e attuale, separate da periodi che sono stati chiamati inverni dell’intelligenza artificiale. Dalla sua nascita a oggi, l’intelligenza artificiale si è sviluppata principalmente su due approcci contrapposti. Quello classico, detto anche “top-down”, è un approccio simbolico, che si basa sulla capacità di comprendere dell’uomo creando regole e definendo concetti; è un’area dell’intelligenza artificiale che si focalizza nell’esprimere l’intelligenza umana in forma dichiarativa, con fatti e regole. Esempi applicativi in merito sono sistemi esperti, “decision support systems”, “knowledge bases”. Nell’approccio simbolico, per insegnare qualcosa a un sistema di intelligenza artificiale è necessario fornire ogni singola caratteristica, informazione o regola che può essere utilizzata per identificare correttamente qualcosa. Questo approccio è stato protagonista nei primi trent’anni della storia dell’intelligenza artificiale, dal 1950 al 1980. La ricerca oggi si sposta verso modelli ibridi di intelligenza artificiale che comprendano semplici relazioni tra oggetti e le relative spiegazioni con la semplicità di un essere umano.

Estati e inverni dell’AI

La storia prosegue con periodi detti estati perché molto produttivi e inverni perché ricerca e tecnologia si fermavano. A causa di limiti tecnici dell’approccio simbolico ci si sposta verso un approccio moderno, detto anche “bottom-up”, che si sviluppa dopo il 2010 circa; questa modalità è basata sulle reti neurali addestrate con enormi quantità di dati e sull’assunzione che è possibile modellare i processi del cervello umano. Una rete neurale usa un elevatissimo numero di istanze annotate per scovare delle relazioni e creare un modello corrispondente; in questo modo l’intelligenza della rete è costruita sui dati e non su regole logiche. I due paradigmi “top-down” e “bottom-up” sono alla base di ogni progetto di intelligenza artificiale.

Entrambi gli approcci, presi singolarmente hanno dimostrato di avere dei punti deboli e di essere inadeguati: la simbolica si interrompe quando non è esplicitamente programmata per il contesto applicativo, la rete neurale produce risultati inattesi quando incontra qualcosa di nuovo rispetti agli esempi con cui è stata addestrata e in generale non è in grado neanche di simulare il pensiero astratto. La combinazione di entrambi sembra la via migliore per superare situazioni di stallo; la ricerca si sposta verso modelli ibridi di intelligenza artificiale che comprendano semplici relazioni tra oggetti e le relative spiegazioni con la semplicità di un essere umano.

modelli ibridi AI

L’approccio ibrido: l’intelligenza artificiale neuro-simbolica

I modelli ibridi di AI uniscono e combinano le qualità migliori delle reti neurali e dei modelli simbolici. Grandi dataset composti da audio, video, immagini, dati testuali, mail, chat e altro, permettono alle reti neurali di estrarre dei modelli matematici; i sistemi basati sulla logica permettono di trattare le informazioni ottenute con algoritmi basati su simboli. Un modello ibrido sfrutta la capacità di una rete neurale di elaborare e apprendere da dati non strutturati e contemporaneamente usa tecniche logico simboliche. Un altro aspetto importante è che un modello ibrido permette di ottenere risultati eccezionali con meno dati in addestramento.

Il deep learning ha dato un contributo significativo in settori come la computer vision, la comprensione e la generazione del linguaggio naturale, ma ha i suoi limiti: requisiti estremi di grandi volumi di dati, vulnerabilità agli attacchi di reti avversarie che possono alterare l’efficienza dei modelli di intelligenza artificiale, la loro natura di scatola nera non interpretabile. Comunque, quando sono utilizzati in simbiosi, AI simbolica e reti neurali sono una buona base per la costruzione di sistemi ibridi.

Il deep learning aiuta il modello simbolico nella scomposizione della realtà in simboli legati ai dati e non basati sulla programmazione fatta da un essere umano; l’AI simbolica incorpora nel deep learning il senso comune, il ragionamento, il dominio di conoscenza. Insieme le due metodologie portano vantaggi significativi soprattutto ai sistemi di guida autonoma e alla comprensione e generazione del linguaggio naturale.

Modelli ibridi di AI

Si può immaginare l’architettura di un modello ibrido ispirandosi al funzionamento della mente umana ma convergendo a un livello più generalizzato. L’ambiente in cui opera il sistema intelligente trasmette informazioni che sono raccolte tramite dei sensori e trasferite a una rete neurale; questa converte i dati in forma simbolica sulla base di un motore di inferenza universale che genera comandi ad alto livello come input di un componente di controllo. Il componente di controllo genera comandi a basso livello verso i dispositivi attuatori del sistema agendo sull’ambiente; questo rileva i cambiamenti e il ciclo ricomincia con la rilevazione degli input dai sensori.

Il sistema di controllo può essere anche scisso in una componente reattiva e una componente proattiva. Il sottosistema reattivo implementa il normale controllo, i segnali dai sensori sono elaborati da questo e generano azioni di controllo sull’ambiente; questo processo è simile ai riflessi spontanei umani. Il sottosistema proattivo aggiunge un livello intellettivo al sistema di controllo. Il nuovo livello permette al sistema di imparare, prevedere le condizioni dell’ambiente, pianificare azioni e adattarsi ai cambiamenti. Questo sottosistema implementa un sistema ibrido di riflessi condizionati. La gestione del sistema globale passa da un sottosistema all’altro. Se l’ambiente non cambia, non richiede l’azione di un sistema dinamico, perciò viene privilegiata una reazione tra quelle apprese, quindi conosciute. Viceversa, se le condizioni dell’ambiente cambiano durante le operazioni del componente reattivo, interviene la componente proattiva per un adattamento e per la creazione di nuovi modelli di comportamento del sistema ibrido. L’interazione tra i sottosistemi permette la reazione a stimoli conosciuti e l’acquisizione di nuovi stimoli e la conseguente generazione di una nuova reazione; il sistema globale impara dall’esperienza.

Un caso concreto:  le LNN (Logical Neural Networks)

Riportiamo a titolo di esempio un lavoro fatto da un gruppo di ricercatori in IBM: le LNN (Logical Neural Networks, un nuovo modello capace contemporaneamente di apprendere come una rete neurale e di fare deduzioni come un sistema logico simbolico. LNN è una nuova architettura di rete neurale in cui c’è una corrispondenza 1 a 1 con un sistema di espressioni logiche dove i neuroni modellano rigorosamente una logica classica del primo ordine. L’idea viene da proposte iniziali sulle reti neurali in cui il neurone come unità semplice di un cervello, può essere simulato con una porta logica AND oppure OR. Una LNN considera ogni neurone come una parte di una proposizione logica e i neuroni sono organizzati in un albero sintattico costruito in base al dominio applicativo. Una rete di tipo LNN ha una struttura che permette:

  • di forzare alcuni vincoli logici sui pesi (coefficienti) nella rete neurale durante l’addestramento; l’uso di tali vincoli garantisce il comportamento logico dei neuroni in una LNN. L’output di un neurone logico è calcolato come in altre reti neurali, applicando una funzione di attivazione non lineare a una combinazione lineare di input dai neuroni di un livello precedente, ma con la particolarità che i parametri della rete sono vincolati in modo che ogni neurone si comporti secondo la sua corrispondente funzione logica di verità.
  • inferenza omnidirezionale, ovvero diversamente dalla propagazione in avanti nei livelli di una rete neurale in cui lo scopo è predire un output da un insieme di input, l’inferenza logica può dedurre qualsiasi risultato partendo da qualsiasi insieme di proposizioni; una espressione logica può essere valutata in una direzione detta “upward” quindi validando una premessa per dimostrare un risultato ma anche in direzione opposta “downward”, negando un risultato per invalidare la premessa. Le due modalità sono note in letteratura come “modus ponens” e “modus tollens”. In una LNN si realizza la funzionalità di propagazione downward sfruttando l’inversa della funzione di attivazione; in altre parole, da un output si fa inferenza sull’input corrispondente. In questo processo inverso, se la funzione di attivazione non è invertibile, si generano problemi computazionali; questo è il motivo per cui si introduce il punto descritto di seguito.
  • soglie sui valori di verità di ognuno dei neuroni; in una rete neurale ogni neurone ha un coefficiente o peso che è un valore unico. In una LNN, invece di un unico valore, ogni neurone ha un limite inferiore (L) e un limite superiore (U). Questo permette l’inizializzazione di situazioni sconosciute con limite inferiore 0 e limite superiore 1. Diversamente da altri metodi che ritornano sempre un valore di verità, un LNN riesce a modellare le contraddizioni con valore del limite inferiore maggiore del valore di limite superiore (L>U) e i casi di ambiguità (L=U=0.5).

Gli autori sostengono che nonostante il carattere innovativo di questo tipo di rete, una LNN è solo un caso speciale di una normale rete neurale, tanto che è implementabile con i framework standard disponibili oggi, come per esempio PyTorch. Inoltre, prima che l’addestramento di una rete di questo tipo sia effettivamente fattibile, devono essere risolti altri problemi tecnici come, per esempio, la errata rimozione degli input per determinati valori dei parametri.

Applicazioni di modelli ibridi di AI

Un sistema di controllo automatico o autonomo evolve verso un modello ibrido di intelligenza artificiale con l’incremento della sua adattabilità e dell’autonomia. Queste due caratteristiche misurano quanto un sistema di intelligenza artificiale sia “intelligente”, ovvero sia in grado di reagire e adattare il suo comportamento a input non previsti e su cui non è stato addestrato. Di seguito alcuni esempi, alcuni imminenti, altri di un futuro meno prossimo.

Sistemi intelligenti di controllo del traffico e guida autonoma

Questi sistemi sono progettati per ottimizzare la velocità e garantire la sicurezza sulle strade. Con l’arrivo dei veicoli a guida autonoma i trasporti intelligenti ne sono l’evoluzione naturale. Il sistema prende le decisioni (controllo attuatori) in base ai parametri di flusso del traffico (sensori) e in base alle previsioni dei modelli di trasporto, tenendo conto delle condizioni meteorologiche e di traffico (proattività sulle variazioni). Un tale sistema sarebbe in grado di dare risposte coerenti anche in presenza di eventi che non sono mai stati valutati in precedenza; si riduce la necessità di una supervisione umana al sistema di controllo o equivalentemente il sistema intelligente è più autonomo. Un sistema di guida autonoma sarebbe più affidabile e meno vulnerabile a eventi anomali che si verificano sul percorso.

Gestione intelligente degli edifici e domotica

Un edificio può contenere un elevato numero di sensori che controllano l’ambiente; per alcuni di questi sarà sufficiente la gestione tramite un sistema reattivo in quanto le situazioni sono note a priori. L’aggiunta di un componente proattivo permette la gestione di imprevisti e un migliore adattamento con la variazione dell’ambiente circostante. Anche in questo caso si aumenta l’autonomia di un sistema di controllo basato su intelligenza artificiale.

Gestione del linguaggio naturale

Come già accennato, l’AI in modelli ibridi si dimostra molto efficiente nella gestione del linguaggio naturale (NLP). Il ragionamento è legato al linguaggio naturale, quindi quale migliore campo di applicazione della AI neuro simbolica si potrebbe cercare se non il Natural Language Processing? Sullo stato dell’arte in questo contesto applicativo citiamo una pubblicazione recente in cui si cerca di rispondere alla domanda se i modelli ibridi riescono a soddisfare le aspettative: ragionamento, generalizzazione, interpretabilità, apprendimento da pochi dati, estensione ad altri domini applicativi. I risultati sono promettenti, molti scopi cardine della AI neuro simbolica vengono raggiunti, ma ci sono ancora aspetti tecnici importanti come i costi computazionali, difficoltà di generalizzazione partendo da contesti e domini specifici; in questi modelli, tuttavia, c’è il potenziale per indirizzare sempre meglio i problemi applicativi reali.

Motori di ricerca

I motori di ricerca, citando anche uno dei più noti come Google, si stanno evolvendo con capacità di adattamento della lingua, del linguaggio naturale, della ricerca in immagini. Questi sistemi esperti sono costruiti con l’aiuto del deep learning, dei modelli transformer e con una gestione avanzata di simboli tramite dei Knowledge Graph.

Vantaggi dell’intelligenza artificiale neuro-simbolica

I modelli ibridi ereditano i vantaggi sia dei modelli simbolici sia delle reti neurali, mitigandone gli svantaggi individuali. Ci si aspetta non solo una migliore efficienza nei risultati ma anche un insieme di migliorie nella costruzione dei modelli e nella loro architettura. Di seguito tre principali motivi per cui vale la pena di investire nella ricerca sui modelli ibridi.

Maggiore precisione

Chiediamoci perché, nonostante una rete neurale sia efficiente, è importante riuscire a ridurre i casi che non comprende, la percentuale di errore? Per avere un’idea bisogna considerare dei casi estremi o anomali rispetto a un flusso normale di operazioni.

Pensiamo a un sistema di guida autonomo e a un evento naturale come un fulmine che scaricandosi a terra danneggi un passaggio a livello. Mentre un guidatore umano saprebbe o sarebbe in grado di dedurre come comportarsi, il sistema di guida autonoma non saprebbe cosa fare a causa della difficoltà di fornire certi dati al sistema. L’intelligenza artificiale neuro-simbolica è in grado di gestire sia questi casi anomali sia altre situazioni con meno dati di addestramento e migliore accuratezza.

Capacità di sfruttare l’efficienza dei dati

I dati necessari per addestrare i sistemi di intelligenza artificiale moderni sono enormi; basti pensare ai modelli BERT e GPT-3 per l’interazione in linguaggio naturale o anche ai sistemi che sono in grado di descrivere una immagine o un breve video. Un cervello umano può imparare con pochi esempi e brevemente mentre un algoritmo di AI ha bisogno di migliaia o milioni di esempi che siano anche esaustivi delle situazioni da comprendere. I sistemi di intelligenza artificiale neuro-simbolici possono essere addestrati con una percentuale molto inferiore a quella dei dati richiesti da altri metodi.

Trasparenza e interpretabilità

Questo aspetto fa riferimento al fatto che è difficile spiegare decisioni e conclusioni prodotte da un sistema di AI; è come una “scatola nera”. L’argomento è oggetto di ampie discussioni e ricerche in relazione anche alla “explainable AI”. Non in tutti i modelli sarebbe necessario capire o sapere come lavora la scatola nera ovvero l’algoritmo. Per esempio, il motivo per cui un bot raccomanda un determinato film rispetto ad altri su Netflix è una decisione di cui difficilmente un utente si potrebbe preoccupare. Ci sono però altre situazioni in cui la trasparenza delle decisioni in AI diventa fondamentale; ad esempio, in sistemi di guida autonoma, in sistemi di diagnostica medica, in sistemi di valutazione delle richieste di prestiti. L’intelligenza artificiale neuro-simbolica può rendere il processo trasparente e interpretabile, spiegando perché il sistema prende determinate decisioni. Si apre una ulteriore porta verso l’explainable AI che sta diventando uno dei punti focali della ricerca in questo settore.

Conclusioni

L’intelligenza artificiale neuro simbolica unisce due approcci che insieme riducono i punti deboli di entrambi e ne migliorano l’efficienza permettendo a un sistema di fare dei passi avanti verso la somiglianza a una mente umana. La promessa e la scommessa dei modelli neuro simbolici è di riuscire a gestire il ragionamento astratto e la capacità di generalizzare un modello a più domini applicativi, unendo più approcci. In questo articolo sono stati considerati solo due aspetti, le reti neurali o deep learning e la logica simbolica, ma è possibile attingere a più settori dell’intelligenza artificiale; la ricerca si allarga anche a sistemi basati su reinforcement learning, logica induttiva e rappresentazione a grafo, soprattutto in campi come la robotica in cui l’insieme delle azioni e l’insieme degli stati variano nel continuo e sono infiniti. La comprensione dei modelli di deep learning, la loro trasparenza e l’interpretabilità sembrano destinati a passare per i modelli ibridi di AI.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2