Emotional AI, ecco chi studia le emozioni dei robot

Un approccio multidisciplinare della computazione, che combina competenze e conoscenze di aree diverse come ingegneria, neuroscienze e psicologia comportamentale. L’idea è la volontà di dotare le macchine di intelligenza emotiva, anche per simulare l'empatia: la macchina, in questo modo, potrebbe essere in grado di interpretare lo stato emotivo degli esseri umani con cui si relaziona e, di conseguenza, essere capace di adattare il suo comportamento ai suoi interlocutori, dando una risposta adeguata a quelle emozioni [...]
Andrea Benedetti

Data strategist, Microsoft Italia

artificial intelligence
  1. Home
  2. Intelligenza Artificiale
  3. Emotional AI, ecco chi studia le emozioni dei robot

Le emozioni sono stati mentali che ci contraddistinguono come umani e sono un aspetto vitale anche della nostra comunicazione. L’enciclopedia Treccani definisce l’emozione come: processo interiore suscitato da un evento-stimolo rilevante per gli interessi dell’individuo. Come può, quindi, una macchina emozionarsi? O anche riconoscere i sentimenti umani e sembrare essa stessa “emotiva”? Tanto da arrivare a parlare di “emotional AI”?

Nel 1973, lo scrittore statunitense Dean R. Koontz, ha scritto il romanzo fantascientifico “Generazione Proteus” (titolo originale “Demon Seed”) in cui un computer intelligente era capace anche di arrabbiarsi: un’intelligenza artificiale in grado di evolvere in continuazione, verso un concetto molto umano della realtà, arrivando a innamorarsi della protagonista (umana) e, poi, fino al desiderio di poter avere un figlio da lei.

In anni molto più recenti, il film “Lei” (titolo originale “Her”), una pellicola del 2013 scritta e diretta da Spike Jonze (che vincerà il premio Oscar nel 2014 come miglior sceneggiatura originale), con protagonista Joaquin Phoenix, racconta una storia d’amore tra un uomo e un assistente digitale, Samantha. Un’intelligenza artificiale che arriva fino a provare sentimenti di gelosia.

emotional AI

Che cos’è l’affective computing

Oggi, abbandonando la finzione, il riconoscimento delle emozioni è un ambito molto studiato nell’intelligenza artificiale: quello che viene comunemente chiamato “affective computing” permette alle macchine di assumere atteggiamenti simili a quelli umani mentre provano sentimenti. Si tratta di un approccio multidisciplinare della computazione, che combina competenze e conoscenze di aree diverse come ingegneria, neuroscienze e psicologia comportamentale.

L’idea alla base delle ricerche e una delle motivazioni principali è la volontà di dotare le macchine di intelligenza emotiva, anche per simulare l’empatia: la macchina, in questo modo, potrebbe essere in grado di interpretare lo stato emotivo degli esseri umani con cui si relaziona e, di conseguenza, essere capace di adattare il suo comportamento ai suoi interlocutori, dando una risposta adeguata a quelle emozioni.

L’intelligenza artificiale emotiva è un ambito oggi molto discusso nel settore dei media, così come nell’industria. L’emotional AI è, quindi, un’area di studio che sviluppa meccanismi in grado di misurare, comprendere, simulare, reagire alle emozioni umane.

In un momento storico in cui la relazione uomo – macchina avviene sempre più tramite la nostra interfaccia naturale, la voce, è interessante notare come la nostra forma preferita di comunicazione non è data esclusivamente dalle parole ma, piuttosto, dal modo in cui le pronunciamo: “Posso far piangere il pubblico semplicemente recitando l’alfabeto!” diceva un attore.

L’idea di base dell’affective computing è quella di lavorare unendo le conoscenze dell’informatica e del comportamento umano, per creare strumenti che siano altamente innovativi e, in un qualche modo, rivoluzionari.

Le macchine sono molto brave (e molto rapide) ad analizzare grandi quantità di dati: possono ascoltare le inflessioni della voce e iniziare a riconoscere quando tali inflessioni sono correlate a stress, rabbia o altri stati d’animo. Allo stesso modo, le macchine possono analizzare le immagini e riuscire a cogliere dettagli e sottigliezze nelle micro-espressioni dei volti che, tra l’altro, potrebbero accadere in un lasso di tempo troppo veloce per essere riconosciute (interpretate) da una persona (sull’argomento si veda anche questo articolo sul robot Sophia)

Già nel 1995, Rosalind Picard – fondatrice e direttrice dell’Affective Computing Research Group del Massachusetts Institute of Technology (MIT) Media Lab – scriveva che “le emozioni giocano un ruolo necessario non solo nella creatività e nell’intelligenza umana, ma anche nel pensiero umano razionale e nel processo decisionale. I computer che interagiranno in modo naturale e intelligente con gli esseri umani hanno bisogno della capacità di riconoscere ed esprimere almeno gli affetti “.

Secondo il professor Erik Brynjolfsson del MIT “proprio come possiamo capire la parola e le macchine possono comunicare attraverso la parola, anche noi comprendiamo e comunichiamo con l’umorismo e altri tipi di emozioni. Le macchine in grado di parlare quel linguaggio – il linguaggio delle emozioni – avranno interazioni migliori e più efficaci con noi. È fantastico che abbiamo fatto dei progressi; è solo qualcosa che 20 o 30 anni fa non era un’opzione, e ora è sui nostri tavoli di lavoro. ”

Come funziona l’emotional AI

In un certo senso, il computer emotivo è, per molti versi, simile alla sua controparte umana: utilizza una sorta di sistema limbico per le emozioni, lavorando su più parti connesse tra loro

Così come questo comprende una serie di strutture cerebrali e un insieme di circuiti neuronali in grado di svolgere compiti differenti, così questa parte artificiale è composta da differenti funzioni:

  • Riconoscimento delle emozioni: funziona principalmente analizzando il suono (il parlato), il contenuto scritto, le espressioni facciali, la postura e il movimento e persino l’attività cerebrale. Ci sono già diversi motori di riconoscimento delle emozioni come il progetto, nato nel 2008, openSMILE (con “smile” che non significa “sorriso” ma “Speech & Music Interpretation by Large-space Extraction”), utilizzato per l’analisi audio e OpenCV (Open Computer Vision Library), progetto lanciato nel lontano 1999 dai laboratori di Intel Research, utilizzato con contenuti video
  • Generazione di emozioni: sono tecnologie che esistono da più di tre decenni, in grado di utilizzare principalmente regole predefinite piuttosto che modelli di addestramento. I sistemi di sintesi vocale come il motore MARY (MARYtts, MARY Text-to-Speech System) sono gli esempi più diffusi di queste soluzioni
  • Aumento delle emozioni: sono soluzioni incentrate sulla capacità di aggiungere capacità emotive. Il progetto SEMAINE (Sustained Emotionally coloured Machine-human Interaction using Nonverbal Expression), o ARIA VALUSPA (Artificial Retrieval of Information Assistants – Virtual Agents with Linguistic Understanding, Social skills, and Personalised Aspects), sono esempi di motori di intelligenza artificiale che consentono agli sviluppatori di creare personaggi virtuali in grado di sostenere interazioni con gli esseri umani per un periodo di tempo prolungato e, quindi, di reagire in modo appropriato al comportamento non verbale dell’utente.

Mentre, nel tempo, continueremo a costruire e raffinare sistemi sempre più accurati basati sull’intelligenza artificiale emotiva, con la ricerca che continuerà il suo progresso, di contro assisteremo certamente anche a innovazioni nei prodotti (possiamo pensare a dispositivi indossabili, auto intelligenti, dispositivi di assistenza sanitaria, ecc.).

emotional AI

Paro, il robot-foca utilizzato nella robotic pet therapy per le sue “qualità” umane

 

Gartner: nel 2022 il 10% dei dispositivi personali sarà dotato di emotional AI

Per dare un’idea, Gartner, società che si occupa di consulenza strategica, ricerca e analisi nel campo della tecnologia dell’informazione, prevede che il 10% di tutti i dispositivi personali includerà una qualche forma di tecnologia di riconoscimento delle emozioni entro il 2022.

I casi d’uso di queste tecnologie diventano, di fatto, tutti quegli ambiti in cui il poter riuscire ad analizzare uno stato cognitivo, come può essere la felicità, il dolore o l’ansia, permetterebbe un’interazione che, prima, non poteva essere gestita da una macchina:

  • Assistenza sanitaria: il Disturbo Post-Traumatico da Stress (PTSD) è un disturbo della salute mentale debilitante. Danneggia gravemente la vita di un malato. La NYU School of Medicine insieme ai ricercatori SRI hanno sviluppato uno strumento che diagnostica questo problema attraverso l’analisi vocale. È interessante notare come, ad oggi, lo strumento ha una percentuale di successo dell’89% nell’analisi e nell’identificazione dei modelli vocali dei malati. Quanto è stato sviluppato permette di determinare emozione, cognizione e salute mentale analizzando la voce dell’oratore. Alla base di tutto, un complesso algoritmo di machine learning permette di classificare marcatori vocali in grado di prevedere con precisione il disturbo in un paziente.

 

  • Formazione scolastica: i bambini con autismo, in genere lottano con la comunicazione non verbale. L’informatica affettiva può essere utilizzata per aiutarli a comprendere meglio gli elementi non verbali della comunicazione. Il documento “CultureNet: A Deep Learning Approach for Engagement Intensity Estimation from Face Images of Children with Autism” raccoglie e documenta uno studio su come i modelli di deep learning possano essere utilizzati insieme ai robot per migliorare la “precisione della stima del coinvolgimento”.

In tutti questi ragionamenti, la privacy deve rimanere un caposaldo imprescindibile, un ambito che non può essere escluso in nessuna fase, dalla progettazione alla realizzazione di sistemi intelligenti.

Soprattutto per due ragioni:

  1. I dati utilizzati nell’AI emotiva analizzano un’ampia gamma di tipi di dati, inclusi quelli comportamentali e biometrici. La progettazione e lo sviluppo di dispositivi di intelligenza artificiale emotiva richiederanno grandi quantità di dati personali per scopi di formazione e di utilizzo.
  2. Negli Stati Uniti, diverse ricerche hanno rilevato che un’altissima percentuale di adulti ritiene di avere scarso controllo sui dati raccolti su di loro dalle aziende. Allo stesso tempo, The Internet Society evidenzia che il 63% delle persone considera i dispositivi connessi “inquietanti” con un 75% di persone che non si fida del modo in cui i dati vengono condivisi.

Conclusioni

La privacy e la ricerca della fiducia sono e devono essere temi essenziali di qualsiasi tecnologia che utilizzi dati personali, inclusi i sistemi basati sull’intelligenza artificiale emotiva.

Ad ogni modo, rilevare e interpretare la complessità delle emozioni non è un compito facile e sarà necessario altro tempo per poter ottenere risultati molto accurati. Anche tenendo conto delle sfumature culturali che potrebbero portare gli algoritmi di analisi a pregiudizi (bias) non solo di genere e di etnia. Anche in questo ambito, come abbiamo ricordato spesso, maggiori e diversi saranno gli input e i dati forniti per poter avere ricche banche dati, più è probabile che saremo in grado di avere a disposizione un’intelligenza artificiale equa e imparziale.

TopNetwork - Riconoscimento immagini e oggetti

 

FacebookTwitterLinkedIn