Intelligenza Artificiale - cos'è e perché se ne parla, gli ambiti applicativi
10 dicembre 2018
FacebookTwitterLinkedIn

Cos’è l’Intelligenza Artificiale, perché tutti ne parlano e quali sono gli ambiti applicativi

Nicoletta Boldrini - @NicBoldrini

Intelligenza Artificiale cos'èTante, forse troppe, parole attorno al caldissimo tema dell’Intelligenza Artificiale con il paradosso che in moltissimi ancora non ne capiscono il significato e l’importanza.

Cerchiamo di capire di cosa si tratta e perché tutti ne stanno parlando, tracciando un quadro sulle attuali tecnologie in uso e gli ambiti di maggior focalizzazione dell’Intelligenza Artificiale per il business.

 

Ultimo aggiornamento: 30 agosto 2018 

Indice degli argomenti:

Intelligenza Artificiale cos’è? Ecco una definizione

Cos’è l’Intelligenza Artificiale? In modo semplicistico potremmo definire l’intelligenza artificiale come l’abilità di un sistema tecnologico di risolvere problemi o svolgere compiti e attività tipici della mente e dell’abilità umane. Guardando al settore informatico, potremmo identificare l’AI – Artificial Intelligence come la disciplina che si occupa di realizzare macchine (hardware e software) in grado di “agire” autonomamente (risolvere problemi, compiere azioni, ecc.).

Il fermento attuale attorno a questa disciplina si spiega con la maturità tecnologica raggiunta sia nel calcolo computazionale (oggi ci sono sistemi hardware molto potenti, di ridotte dimensioni e con bassi consumi energetici), sia nella capacità di analisi in real-time ed in tempi brevi di enormi quantità di dati e di qualsiasi forma (Analytics).

L’interesse della comunità scientifica per l’Intelligenza Artificiale ha inizio però da molto lontano: il primo vero progetto di Artificial Intelligence (ormai nota con l’acronimo AI) risale al 1943 quando i due ricercatori Warren McCulloch e Walter Pitt proposero al mondo scientifico il primo neurone artificiale cui seguì poi nel 1949 il libro di Donald Olding Hebb, psicologo canadese, grazie al quale vennero analizzati in dettaglio i collegamenti tra i neuroni artificiali ed i modelli complessi del cervello umano. I primi prototipi funzionanti di reti neurali [cioè modelli matematici/informatici sviluppati per riprodurre il funzionamento dei neuroni biologici per risolvere problemi di intelligenza artificiale intesa, in quegli anni, come la capacità di una macchina di compiere funzioni e fare ragionamenti come una mente umana – ndr] arrivarono poi verso la fine degli anni ’50 e l’interesse del pubblico si fece maggiore grazie al giovane Alan Turing che già nel 1950 cercava di spiegare come un computer possa comportarsi come un essere umano.

Il termine Artificial Intelligence in realtà parte “ufficialmente” dal matematico statunitense John McCarthy (nel 1956) e con esso il “lancio” dei primi linguaggi di programmazione (Lisp nel 1958 e Prolog nel 1973) specifici per l’AI. Da lì in poi la storia dell’Intelligenza Artificiale è stata abbastanza altalenante caratterizzata da avanzate significative dal punto di vista dei modelli matematici (sempre più sofisticati modellati per “imitare” alcune funzionalità cerebrali come il riconoscimento di pattern) ma con alti e bassi dal punto di vista della ricerca sull’hardware e sulle reti neurali. La prima grande svolta su quest’ultimo fronte è arrivata negli anni ’90 con l’ingresso sul mercato “allargato” (arrivando cioè al grande pubblico) dei processori grafici, le Gpu – graphics processing unit (chip di elaborazione dati molto più veloci delle Cpu, provenienti dal mondo del gaming ed in grado di supportare processi complessi molto più rapidamente, per altro operando a frequenze più basse e consumando meno energia rispetto alle “vecchie” Cpu).

L’ondata più recente è arrivata nell’ultimo decennio con lo sviluppo dei cosiddetti “chip neuromorfici”, ossia microchip che integrano elaborazione dati e storage in un unico micro componente (grazie all’accelerazione che ha avuto anche la ricerca nel campo delle nanotecnologie) per emulare le funzioni sensoriali e cognitive del cervello umano (ambito quest’ultimo dove si stanno concentrando anche molte startup).

La storia dell’intelligenza artificiale: Dalle reti neurali degli anni ’50 ad oggi

Guardando un po’ alla storia passata, è alla fine degli anni ’50 che risale il primo modello di rete neurale: si trattava del cosiddetto “percettrone”, proposto nel 1958 da Frank Rosenblatt (noto psicologo e computer scientist americano), una rete con uno strato di ingresso ed uno di uscita ed una regola di apprendimento intermedia basata sull’algoritmo ‘error back-propagation’ (minimizzazione degli errori); la funzione matematica, in sostanza, in base alla valutazione sui dati effettivi in uscita – rispetto ad un dato ingresso – altera i pesi delle connessioni (sinapsi) provocando una differenza tra l’uscita effettiva e quella desiderata. Alcuni esperti del settore fanno risalire proprio al percettrone di Rosenblatt la nascita della cibernetica e dell’Intelligenza Artificiale [Artificial Intelligence – AI: il termine in realtà fu coniato nel 1956 dal matematico statunitense John McCarthy, ed è del 1950 il primo assunto di Alan Turing nel quale spiega come un computer possa comportasri come un essere umano – ndr], anche se negli anni immediatamente successivi i due matematici Marvin Minsky e Seymour Papert dimostrarono i limiti del modello di rete neurale di Rosenblatt: il percettrone era in grado di riconoscere, dopo opportuno “addestramento” solo funzioni linearmente separabili (attraverso il training set – l’algoritmo di apprendimento – nello spazio vettoriale degli input, si riescono a separare quelli che richiedono un output positivo da quelli che richiedono un output negativo); inoltre, le capacità computazionali di un singolo percettrone erano limitate e le prestazioni fortemente dipendenti sia dalla scelta degli input sia dalla scelta degli algoritmi attraverso i quali ‘modificare’ le sinapsi e quindi gli output. I due matematici Minsky e Papert intuirono che costruire una rete a più livelli di percettroni avrebbe potuto risolvere problemi più complessi ma in quegli anni la crescente complessità computazionale richiesta dall’addestramento delle reti mediante gli algoritmi non aveva ancora trovato una risposta sul piano infrastrutturale (non esistevano sistemi hardware in grado di ‘reggere’ tali operazioni).

La prima svolta importante dal punto di vista tecnologico arriva tra la fine degli anni ’70 e il decennio degli anni ’80 con lo sviluppo delle Gpu che hanno ridotto notevolmente i tempi di addestramento delle reti, abbassandoli di 10/20 volte.

Reti Neurali cosa sono

Intelligenza Artificiale: come definirla?

Nella sua accezione puramente informatica, l’Intelligenza Artificiale potrebbe essere classificata come la disciplina che racchiude le teorie e le tecniche pratiche per lo sviluppo di algoritmi che consentano alle macchine (in particolare ai ‘calcolatori’) di mostrare attività intelligente, per lo meno in specifici domini e ambiti applicativi.

Già da questo primo tentativo di definizione è evidente che bisognerebbe attingere ad una classificazione formale delle funzioni sintetiche/astratte di ragionamento, meta-ragionamento e apprendimento dell’uomo per poter costruire su di essi dei modelli computazionali in grado di concretizzare tali forme di ragionamento e apprendimento (compito arduo dato che ancora oggi non si conosce a fondo il reale funzionamento del cervello umano).

Non solo, quando si parla di capacità di ragionamento e apprendimento automatico sulla base dell’osservazione spesso si incappa nell’alveo del Cognitive Computing che va però inteso come l’insieme della piattaforme tecnologiche basate sulle discipline scientifiche dell’Intelligenza Artificiale (tra cui Machine Learning e Deep Learning) e il Signal Processing (la capacità di elaborare i segnali).

Come si può “classificare” oggi l’Intelligenza Artificiale

Già da questo rapidissimo “viaggio storico” si intuisce che dare una definizione esatta di Intelligenza Artificiale è un compito arduo ma, analizzandone le evoluzioni, siamo in grado di tracciarne i contorni e quindi di fare alcune importanti classificazioni.

Intelligenza Artificiale debole e forte: cosa sono e in cosa si distinguono

Prendendo come base di partenza il funzionamento del cervello uomo (pur sapendo che ancora oggi non se ne comprende ancora a fondo l’esatto meccanismo), una Intelligenza Artificiale dovrebbe saper compiere in alcune azioni/funzioni tipiche dell’uomo:

– agire umanamente (cioè in modo indistinto rispetto ad un essere umano);

– pensare umanamente (risolvendo un problema con funzioni cognitive);

– pensare razionalmente (sfruttando cioè la logica come fa un essere umano);

– agire razionalmente (avviando un processo per ottenere il miglior risultato atteso in base alle informazioni a disposizione, che è ciò che un essere umano, spesso anche inconsciamente, fa d’abitudine).

Queste considerazioni sono di assoluta importanza perché permettono di classificare l’AI in due grandi “filoni” di indagine/ricerca/sviluppo in cui per altro la comunità scientifica si è trovata concorde, quello dell’AI debole e dell’AI forte:

A) Intelligenza Artificiale debole (weak AI)

Identifica sistemi tecnologici in grado di simulare alcune funzionalità cognitive dell’uomo senza però raggiungere le reali capacità intellettuali tipiche dell’uomo (parliamo di programmi matematici di problem-solving con cui si sviluppano funzionalità per la risoluzione dei problemi o per consentire alle macchine di prendere decisioni);

B) Intelligenza Artificiale forte (strong AI)

In questo caso si parla di “sistemi sapienti” (alcuni scienziati si spingono a dire addirittura “coscienti di sé”) che possono quindi sviluppare una propria intelligenza senza emulare processi di pensiero o capacità cognitive simili all’uomo ma sviluppandone una propria in modo autonomo.

Machine Learning e Deep Learning, un po’ di chiarezza

La classificazione AI debole e AI forte sta alla base della distinzione tra Machine Learning e Deep Learning, due ambiti di studio che rientrano nella più ampia disciplina dell’Intelligenza Artificiale che meritano un po’ di chiarezza, dato che ne sentiremo parlare sempre più spesso nei prossimi anni.

Dopo le opportune chiarificazioni, possiamo ora spingerci a definire l’Intelligenza Artificiale come la capacità delle macchine di svolgere compiti e azioni tipici dell’intelligenza umana (pianificazione, comprensione del linguaggio, riconoscimento di immagini e suoni, risoluzione di problemi, riconoscimento di pattern, ecc.), distinguibile in AI debole e AI forte. Ciò che caratterizza l’Intelligenza Artificiale da un punto di vista tecnologico e metodologico è il metodo/modello di apprendimento con cui l’intelligenza diventa abile in un compito o azione. Questi modelli di apprendimento sono ciò che distinguono Machine Learning e Deep Learning.

Machine Learning Cos'è

A) Machine Learning cos’è:

Si tratta di un’insieme di metodi per consentire al software di adattarsi, metodi attraverso i quali si permette alle macchine di apprendere in modo che possano poi svolgere un compito o una attività senza che siano preventivamente programmati (senza cioè che vi sia un sistema pre-programmato che stabilisce come deve comportarsi e reagire un sistema di AI). In altre parole, si tratta di sistemi che servono ad “allenare” l’AI in modo che imparando, correggendo gli errori, allenando sé stessa possa poi svolgere autonomamente un compito/attività.

Ciò che caratterizza il Machine Learning è quindi il “modello di apprendimento” ed è proprio in base a questi modelli che si può fare una sorta di classificazione degli algoritmi:

con supervisione didattica (apprendimento mediante esempi di input e di output per far capire all’AI come deve comportarsi);

senza supervisione didattica (apprendimento mediante analisi dei risultati: in questo caso il software capisce come agire e il modello di apprendimento si adatta sulla base di output che permettono di mappano i risultati di determinate azioni e compiti che saranno chiamati a svolgere i software);

reinforcement learning (apprendimento “meritocratico”: l’AI viene premiata quando raggiunge gli obiettivi, i risultati, esegue un’azione, ecc. In questo modo impara quali sono le azioni corrette e quelle errate).

 

B) Deep Learning cos’è:

In questo caso parliamo di modelli di apprendimento ispirati alla struttura ed al funzionamento del cervello biologico e, quindi, della mente umana. Se il Machine Learning può essere definito come il metodo che “allena” l’AI, il Deep Learning è quello che permette di emulare la mente dell’uomo. In questo caso, però, il modello matematico da solo non basta, il Deep Learning necessita di reti neurali artificiali progettate ad hoc (deep artificial neural networks) e di una capacità computazionale molto potente capace di “reggere” differenti strati di calcolo e analisi (che è quello che succede con le connessioni neurali del cervello umano). Può sembrare un livello tecnologico futuristico ma nella realtà questi sono sistemi già in uso nel riconoscimento di pattern, nel riconoscimento vocale o delle immagini e nei sistemi di Nlp – Natural Language Processing.

Come funziona l’Intelligenza Artificiale

Ciò che abbiamo visto finora è il funzionamento tecnologico dell’Intelligenza Artificiale (IA). Dal punto di vista delle abilità intellettuali, il funzionamento di una AI si sostanzia principalmente attraverso quattro differenti livelli funzionali:

comprensione: attraverso la simulazione di capacità cognitive di correlazione dati ed eventi l’AI (Artificial Intelligence) è in grado di riconoscere testi, immagini, tabelle, video, voce ed estrapolarne informazioni;

ragionamento: mediante la logica i sistemi riescono a collegare le molteplici informazioni raccolte (attraverso precisi algoritmi matematici e in modo automatizzato);

apprendimento: in questo caso parliamo di sistemi con funzionalità specifiche per l’analisi degli input di dati e per la loro “corretta” restituzione in output (è il classico esempio dei sistemi di Machine Learning che con tecniche di apprendimento automatico portano le AI ad imparare e a svolgere varie funzioni);

interazione (Human Machine Interaction): in questo caso ci si riferisce alle modalità di funzionamento dell’AI in relazione alla sua interazione con l’uomo. È qui che stanno fortemente avanzando i sistemi di Nlp – Natural Language Processing, tecnologie che consentono all’uomo di interagire con le macchine (e viceversa) sfruttando il linguaggio naturale.

L’evoluzione delle nanotecnologie a supporto dell’Intelligenza Artificiale

La miniaturizzazione sempre più spinta, la capacità di realizzare transistor che in realtà sono neuroni (raggruppamenti di transistor che si comportano come neuroni e sinapsi), l’abilità di ingegnerizzare questi processi (maggiore è tale capacità superiore è l’intelligenza e quindi l’estensione della rete neurale che possiamo inserire in un singolo componente) sono tutti aspetti che oggi possiamo già vedere all’interno dei nostri smartphone dove ci sono chip integrati, ossia processori che integrano al loro interno una Cpu, una Gpu, un Digital Signal Processing… Si è riusciti a mettere in sistemi miniaturizzati una capacità di elaborazione e un sistema di intelligenza senza precedenti.

In realtà dovremo ora vedere se l’evoluzione di questa complessità segue legge di Moore, e quindi osserveremo una crescita esponenziale della complessità delle reti neurali all’interno dei chip, oppure se stiamo arrivando ad un asintoto della legge di Moore, nel senso che oramai i fattori di scala all’interno dei microprocessori sono tali per cui è difficile proseguire con la stessa velocità a ridurre i componenti inseriti nei circuiti integrati.

GpGpu Computing

Con l’ingresso delle Gpu si sono raggiunti negli anni enormi benefici in termini di efficienza e potenza di calcolo, basti pensare al fatto che una Cpu tradizionale è costituita da diversi core ottimizzati per l’elaborazione seriale sequenziale mentre una Gpu è dotata di un’architettura parallela con migliaia di core progettati per la gestione simultanea di più operazioni e che oltretutto sono di minori dimensioni e hanno maggiore efficienza

Ad accelerare lo sviluppo delle reti neurali sarà però il cosiddetto GpGpu Computing: la sigla significa ‘General-purpose Gpu Computing’ e indica l’impiego delle Gpu, che storicamente nascono per l’elaborazione grafica, in processi di altra natura, più generali. Tecnicamente, il computing accelerato dalle Gpu esiste dal 2007 (si affianca un’unità di elaborazione grafica ad una Cpu per accelerare le applicazioni) ed è già impiegato in diverse piattaforme e soluzioni tecnologiche; l’evoluzione va verso un’ulteriore crescita di performance e scalabilità delle Gpu per accelerare lo sviluppo delle Deep Neural Networks (DNNs).

Quantum Computing

Quantum ComputingIl Quantum Computing è un computer quantistico che per eseguire le classiche operazioni sui dati utilizza i fenomeni tipici della meccanica quantistica, come la sovrapposizione degli effetti per effetto di particelle atomiche e subatomiche che possono esistere in stati quantistici sovrapposti.

Per decenni, l’aumento della potenza dei computer è andato di pari passo con la miniaturizzazione dei circuiti elettronici (così come empiricamente codificato nella Legge di Moore: la densità dei transistor su un microchip e la relativa velocità di calcolo raddoppiavano ogni 18 mesi circa). Con la meccanica quantistica la miniaturizzazione dei componenti ha subìto una battuta d’arresto ma la sua traslazione nel campo informatico ha permesso di sviluppare infrastrutture con potenza di calcolo superiori rispetto ai sistemi precedenti (di Quantum Computing si parla dagli anni ’80 ma è solo dai primi anni 2000 che si sono visti i primi risultati concreti).

L’idea di fondo è utilizzare i qubit (stato quantistico di una particella o di un atomo) al posto delle unità d’informazione binaria tradizionali (i bit) che anziché codificare in 0-1 i due stati ‘aperto’ e ‘chiuso’ di un interruttore, possono codificare le informazioni binarie in due orientamenti ‘su’ e ‘giù’; ai fini del calcolo l’aspetto interessante è che particelle atomiche e subatomiche possono sovrapporsi ampliando così le potenzialità di codifica delle informazioni binarie (condizione necessaria per risolvere calcoli/problemi estremamente complessi come quelli alla base dell’Intelligenza Artificiale).

Su questo fronte c’è ancora molto da fare perché ancora non si riesce ad avere un controllo reale su atomi e particelle e sulla loro interazione/comunicazione che rendono quindi difficile anche stendere algoritmi ad hoc pensati per funzionari su questo tipo di sistemi.

Computer quantistico cos'è

 

Quantum Computing: la partita tra IBM e Google

Gli attori che oggi giocano un ruolo primario sul palcoscenico mondiale del quantum computing sono sostanzialmente due: IBM e Google (cui seguono Microsoft, Intel, Facebook ed una serie di numerose startup). I due colossi stanno battagliando a suon di investimenti in ricerca per un trofeo d’onore: arrivare per primi sul mercato con un personal computer o un device mobile che sfrutta l’enorme capacità del calcolo computazionale basato sui quanti.

Nell’ultimo anno IBM, all’interno dei propri laboratori di Zurigo dove lavorano scienziati di differenti discipline che si dedicano alla pura ricerca sperimentale, ha ottenuto grandissimi risultati che hanno consentito alla ricerca di fare un enorme passo in avanti. Fino all’anno scorso, infatti, uno dei principali ostacoli allo sviluppo del quantum computing era l’identificazione degli errori che si generano sfruttando i qubit (i quanti sono instabili ed i qubit possono quindi cambiare stato – da 0 a 1 o viceversa): l’errore di cambio di stato (chiamato bit-flip) e l’errore di segnale (chiamato phase-flip) non potevano essere rilevati contemporaneamente ma solo uno alla volta limitando così l’esecuzione dei calcoli.

Attraverso il disegno di un nuovo chip basato su 4 qubit i ricercatori di IBM hanno superato questo ostacolo e annunciato al mondo che nel prossimo decennio si potranno sviluppare processori quantistici basati su 50-100 qubit (come termine di paragone basta pensare che uno smartphone odierno potrebbe funzionare con 2 qubit).

Fermo restando che uno degli ostacoli primari a tale sviluppo – ben lontano dall’essere superato – è il sistema di raffreddamento (oggi i computer quantistici utilizzati nei laboratori di ricerca utilizzano letteralmente ‘botole’ per la criogenia), Google ha da poco annunciato che vuole condurre un esperimento con un nuovo circuito basato su una griglia di 49 qubit. Sarebbe un vero e proprio ‘salto quantico’, per rimanere nell’alveo della fisica quantistica, dato che l’ultimo chip realizzato da Google aveva ‘solo’ 6 qubit e che gli esperimenti fatti fino ad ora hanno mostrato risultati solo mediante l’utilizzo di piccoli gruppi di qubit (ci si è spinti al massimo fino a 9 qubit in linea, risultato raggiunto sempre dai laboratori di ricerca Google).

Ciò a cui sta lavorando Google è il disegno architetturale del chip; gli scienziati sono convinti che la stabilità, la scalabilità e le prestazioni dei qubit dipendano dalla configurazione degli stessi all’interno della ‘griglia’ e dalla conformazione del circuito. Il team di ricercatori ha già sperimentato, sul chip a 6 qubit, un nuovo sistema di produzione del circuito, separando di fatto la griglia dei qubit dal tradizionale sistema di cablaggio che li controlla (posizionando quest’ultimo su un secondo chip poi saldato al primo). L’idea è eliminare le linee di controllo supplementari necessarie in un chip più grande che in realtà possono interferire con la funzione dei qubit.

La Cina spalanca le porte alla crittografia quantistica satellitare

Recentemente la Cina ha annunciato di avere rilasciato online il più grande network a chiave quantistica.

Le chiavi quantistiche sono lunghe stringhe di numeri  –  chiavi per aprire file crittografati proprio come quelle utilizzate nei computer moderni  –  ma sono codificate tramite lo stato fisico delle particelle quantistiche. Ciò significa che sono protetti non solo dai limiti del computer, ma anche dalle leggi della fisica.  Le chiavi quantistiche non possono essere copiate. Possono crittografare le trasmissioni tra computer classici e nessuno può rubarle senza che il mittente o il destinatario se ne accorgano  (una legge della meccanica quantistica afferma che, una volta osservata una particella subatomica, il suo stato viene alterato).

A fine 2017, i ricercatori cinesi hanno criptato quantisticamente delle immagini codificandole come stringhe di numeri basate sugli stati quantistici dei fotoni, e le hanno inviate attraverso distanze fino a 4.722 miglia (7.600 km) tra Pechino e Vienna  – infrangendo il precedente record di 251 miglia (404 km), anch’esso ottenuto dalla Cina grazie all’utilizzo del satellite cinese Micius, un potente rivelatore e trasmettitore di fotoni.

Quantum Machine Learning

Il Quantum Machine Learning è quell’area dell’informazione quantistica che combina la velocità del Quantum Computing con le abilità dell’autoapprendimento e dell’adattamento del Machine Learning e dell’Intelligenza Artificiale.

Alcuni fisici hanno sviluppato un algoritmo di machine learning basato sul calcolo computazionale quantistico in grado di gestire dimensioni infinite, cioè di lavorare su variabili continue con un numero infinito di valori possibili. Il salto è epocale, dato che fino ad oggi gli algoritmi di apprendimento utilizzati mediante il calcolo quantistico hanno sempre funzionato basandosi su variabili discrete (utilizzando cioè un numero finito di valori).

Lo studio è stato pubblicato per la prima volta il 21 febbraio 2017 dalla rivista scientifica “Physical Review Letters” che ha riportato le evidenze degli studi dei fisici Hoi-Kwan Lau, Raphael Pooser, George Siopsis, e Christian Weedbrook intitolato “Quantum Machine Learning over Infinite Dimensions”.

Gli scienziati sono riusciti a dimostrare, prima di tutto, ‘la potenza’ dei fotoni nell’aumentare le prestazioni di un algoritmo di Machine Learning (e quindi di svolgere meglio i compiti di apprendimento) su un computer quantistico, cosa che, di per sé, rappresenta già un enorme vantaggio in termini di rapidità e scalabilità delle prestazioni di calcolo rispetto ai sistemi convenzionali in uso oggi (anche rispetto ai supercomputer), per altro ad un costo energetico minore (dato che i qubit possono immagazzinare molte più informazioni dei bit).

Ma la novità più interessante riguarda il ‘cambio di prospettiva’ di impiego degli algoritmi di Machine Learning: la maggior parte degli algoritmi di Quantum Machine Learning sviluppati fino ad oggi opera mediante ‘problemi matematici’ che utilizzano variabili discrete. Applicare il Quantum Machine Learning ai problemi con variabili continue richiede un approccio completamente differente (per riuscire nell’impresa, come primo step i fisici hanno quindi dovuto sviluppare un nuovo set di tool in grado di operare con variabili continue).

ReRAM (Resistive random-access memory)

In alcuni centri di ricerca si sta lavorando alle ReRAM (Resistive random-access memory), microchip di memoria in grado di ‘calcolare’ e memorizzare dati a tre stati abbandonando il concetto di transistor e aprendo le porte al Ternary Computing. Un gruppo di ricercatori che opera tra Singapore e la Germania sta lavorando allo sviluppo di un chip che opera sia come memoria sia come processore ed è in grado di sfruttare il calcolo ternario (basato su tre stati: 0, 1 e 2).

I chip in commercio ora si basano sul calcolo binario (funzionano come transistor, minuscoli interruttori elettrici, che permettono due diversi livelli di tensione elettrica espressi con 1 e 0, ossia accesso o spento) ed è almeno una trentina d’anni che gli sviluppatori di processori e microprocessori cercano strade efficaci per velocizzare i calcoli basati su questo sistema. Parallelamente all’aumento delle prestazioni dei processori, si sono sviluppati i chip di memoria, in particolare quelli basati su tecnologia flash che però sono ancorati al concetto di transistor. Nelle più avanzate memorie flash ogni transistor è in grado di ‘ospitare’ celle di memoria multilivello permettendo così di registrare il valore di più bit attraverso un solo transistor. Innovazione che ha permesso di raggiungere notevoli prestazioni in termini di velocità e di poter utilizzare queste memorie nelle operazioni di scrittura-lettura dei dati e della loro memorizzazione (essendo memorie non volatili) ma che non risolve i problemi di latenza che si creano quando i dati devono passare dalla memoria al processore.

Anupam Chattopadhyay, della Nanyang Technological University di Singapore, Rainer Waser, della RWTH Aachen University in Germania e Vikas Rana del centro di ricerca Jülich, sempre in Germania, hanno voluto abbandonare il concetto stesso di transistor per studiare e sviluppare un chip in grado di fungere sia da processore sia da memoria. I chip sui quali stanno lavorando sono composti da piccole celle di materiale commutabile elettricamente, solitamente ossidi di metalli di transizione (come titanio e afnio) che cambiano il loro stato di resistenza elettrica in base agli impulsi di carica che passano attraverso di essi per via degli elettrodi (nelle celle su cui stanno lavorando gli scienziati ci sono due elettrodi, a differenza dei transistor che ne contano tre). A stimolare il cambio di resistenza elettrica è il passaggio, nell’ossido di metallo, di ioni di ossigeno che rimangono nella cella anche quando si perde o si spegne l’elettricità consentendo così alla cella di fungere anche da archivio di dati/memoria (non solo, il controllo degli ioni richiede molta meno energia rispetto al controllo degli elettroni nei transistor facendo così in modo che questi chip richiedano molta meno potenza rispetto ai chip “antenati”)

Questo tipo di memorie, chiamate ReRAM, sono ancora in fase di studio ma gli scienziati che vi stanno lavorando pensano che abbiano enormi potenzialità per fungere anche da processori. A differenza dei transistor, sostengono i ricercatori, una cella ReRAM è in grado di ‘reggere’ più di un semplice interruttore ‘on-off’ (1-0), può essere progettata per avere differenti livelli di resistenza ognuno dei quali rappresenta un numero. Oggi i ricercatori hanno sviluppato un chip con tre livelli di resistenza che corrispondono a 3 stati (0,1 e 2) attraverso i quali è possibile memorizzare più dati in uno spazio più piccolo (microchip) ma non escludono che in futuro questi stati possano aumentare.

Sulla rivista scientifica Scientific Reports Nature, i professori Chattopadhyay, Waser e Rana hanno descritto i risultati della loro ricerca sul calcolo ternario ma hanno anche esposto i limiti attuali di questi chip. Al di là degli aspetti commerciali (non è poi così facile, ad oggi, sviluppare chip di questo tipo), queste nuove tecnologie non sarebbero in grado di funzionare con i sistemi operativi ed i software odierni (basati ovviamente sul calcolo binario). Non solo, chip che agiscono contemporaneamente da processore e memoria operano ad un tasso di megahertz (milioni di cicli al secondo) e non di gigahertz (miliardi di cicli al secondo) come i più moderni processori attualmente in commercio. Tuttavia, operare ad una frequenza di megahertz potrebbe essere sufficiente per molte applicazioni, soprattutto dove la miniaturizzazione offre un vantaggio (per esempio nei piccoli dispositivi); se poi consideriamo anche il loro basso consumo potrebbero presto trovare spazio in prodotti come sensori, wearable device, dispositivi medici indossabili, ecc.

Chip Neuromorfici e Phase Change Memory

Si tratta di circuiti che imitano il funzionamento delle connessioni neurali di un cervello umano. Su questo fronte la ricerca sta avanzando abbastanza rapidamente; una recentissima pubblicazione scientifica apparsa su Nature Nanotechnology spiega come alcuni scienziati dei laboratori di ricerca IBM a Zurigo siano riusciti a realizzare in laboratorio dei neuroni artificiali con materiali ‘phase change’ (a cambiamento di fase).

I ricercatori hanno utilizzato il ‘germanio tellururo di antimonio’ [di derivazione dalla lega GeSbTe, germanio, antimonio e tellurio, materiale a transizione di fase usato nei dischi ottici riscrivibili – ndr], materiale che mostra due stati stabili (uno cosiddetto amorfo, senza una struttura definita, ed uno cristallino, dotato quindi di struttura) ma che non serve per salvare informazioni ma per abilitare sinapsi, come avviene tra i neuroni biologici. Mediante una serie di impulsi elettrici, questi neuroni artificiali mostrano una progressiva cristallizzazione del materiale ma ciò che risulta davvero innovativo è il cambiamento di carica elettrica tra l’interno e l’esterno del chip (chiamato ‘proprietà integrate-and-fire’ che nel cervello umano accade per esempio quando si tocca qualcosa di caldo e costituisce la base del calcolo basato su eventi). Partendo da queste scoperte, gli scienziati stanno lavorando alla strutturazione di ‘popolazioni di centinaia di neuroni artificiali’ utilizzandole per gestire segnali complessi e veloci; questi neuroni artificiali stanno mostrando di poter sostenere miliardi di cicli di trasformazione con un consumo energetico molto basso: l’energia richiesta per l’aggiornamento di ciascun neurone – cioè per il suo cambiamento di fase – è meno di 5 picojoule con un consumo medio minore di 120 microwatt; per avere un termine di paragone, 60 milioni di microwatt rappresentano la potenza di una lampadina di 60 watt.

I chip neuromorfici vanno nella direzione di uno sviluppo hardware che consente di fare elaborazione in modo diverso rispetto all’approccio attuale tenendo dati e capacità di elaborazione nello stesso componente (esattamente come fa il cervello umano che li tiene nei neuroni e nelle loro sinapsi).

Intelligenza Artificiale e Agenda Digitale

L’Intelligenza Artificiale è da tempo sui tavoli di lavoro dell’AgID ed è uno dei temi ampiamente dibattuti e studiati nell’ambito dell’Agenda Digitale Italiana per comprendere come la diffusione di nuovi strumenti e tecnologie di IA possa incidere nella costruzione di un nuovo rapporto tra Stato e cittadini e analizzare le conseguenti implicazioni sociali relative alla creazione di ulteriori possibilità di semplificazione, informazione e interazione.

Proprio seguendo questo “filone” è stata creata in Italia una Task Force, all’interno di AgID, i cui componenti  hanno il compito di:

– studiare e analizzare le principali applicazioni relative alla creazione di nuovi servizi al cittadino, definendo le strategie di gestione delle opportunità per la Pubblica Amministrazione;

– mappare a livello italiano i principali centri – universitari e non – che operano nel settore dell’Intelligenza Artificiale con riferimento all’applicazione operativa nei servizi al cittadino;

– mappare il lavoro già avviato da alcune amministrazioni centrali e locali proponendo azioni da intraprendere per l’elaborazione di policy strategiche;

– evidenziare e studiare le implicazioni sociali legate all’introduzione delle tecnologie di Intelligenza Artificiale nei servizi pubblici.

SEGUI LA PAGINA DI AGENDA DIGITALE E APPROFONDISCI sul valore dell’Intelligenza Artificiale nell’ambito dell’Agenda digitale dell’Italia

 

Esempi di Intelligenza Artificiale, gli ambiti applicativi in Italia e nel mondo

Forrester stima che nel 2017 ci sarà una crescita di investimenti e progetti in IA superiore del 300% rispetto a quest’anno e le grandi multinazionali, le Over The Top come Facebook, Google, Amazon, Apple e Microsoft stanno battagliando non solo per portare al proprio interno startup innovative nel campo dell’AI ma anche per avviare ed alimentare progetti di ricerca di cui già oggi vediamo alcuni frutti (come il riconoscimento delle immagini, dei volti, le applicazioni vocali, le traduzioni linguistiche, ecc.). Come accennato all’inizio di questo articolo, oggi la maturità tecnologica ha fatto sì che l’Intelligenza Artificiale uscisse dall’alveo della ricerca per entrare di fatto nella vita quotidiana. Se come consumatori ne abbiamo importanti “assaggi” soprattutto grazie a Google e Facebook, nel mondo del business la maturità (e la disponibilità) delle soluzioni tecnologiche ha portato la potenzialità dell’AI in molti segmenti. Questi quelli più in fermento in questo momento:

A) Marketing e Intelligenza Artificiale, saldo binomio

Assistenti vocali/virtuali (chatbot, Siri di Apple, Cortana di Microsoft, Alexa di Amazon) che sfruttano l’Intelligenza Artificiale sia per il riconoscimento del linguaggio naturale sia per l’apprendimento e l’analisi delle abitudini e dei comportamenti degli utenti; analisi in real-time di grandi moli di dati per la comprensione del “sentiment” e delle esigenze delle persone per migliorare customer care, user experience, servizi di assistenza e supporto ma anche per creare e perfezionare sofisticati meccanismi di ingaggio con attività che si spingono fino alla previsione dei comportamenti di acquisto da cui derivare strategie di comunicazione e/o proposta di servizi. L’AI nel Marketing sta mostrando da un paio d’anni tutta la sua massima potenza e l’area di impiego maggiore è sicuramente quella della gestione della relazione con gli utenti.

Chatbot Cosa Sono

Artificial Intelligence Marketing (AIM), algoritmi per persuadere le persone

Da diversi anni è nata una vera e propria disciplina, l’Artificial Intelligence Marketing (AIM), una branca del Marketing che sfrutta le più moderne tecnologie che rientrano nell’ambito dell’Intelligenza Artificiale, come Machine Learning e Nlp – Natural Language Processing, integrate a tecniche matematiche/statistiche (come quelle delle reti bayesiane) e di Marketing comportamentale (behavioral targeting). Si tratta, in concreto, dell’utilizzo degli algoritmi di Intelligenza Artificiale e Machine Learning con l’obiettivo di persuadere le persone a compiere un’azione, acquistare un prodotto o accedere ad un servizio (in altre parole, rispondere ad una “call to action”)

Aggregazione e analisi dei dati (anche quelli destrutturati e basati su linguaggio naturale) in un processo continuo di apprendimento e miglioramento per identificare di volta in volta le azioni, le strategie e le tecniche di comunicazione e vendita probabilisticamente più efficaci (quelle che hanno il potenziale più elevato di efficacia/successo per singoli target di utenti). È questo, in sostanza, quello che fa l’AIM

B) L’Intelligenza Artificiale applicata al mondo della Sanità e dell’HealthCare

L’AI ha avuto il pregio di migliorare molti sistemi tecnologici già in uso da persone con disabilità (per esempio i sistemi vocali sono migliorati al punto da permettere una relazione/comunicazione del tutto naturale anche a chi non è in grado di parlare) ma è sul fronte della diagnosi e cura di tumori e malattie rare che si potranno vedere le nuove capacità dell’AI. Già oggi sono disponibili sul mercato sistemi cognitivi in grado di attingere, analizzare e apprendere da un bacino infinito di dati (pubblicazioni scientifiche, ricerca, cartelle cliniche, dati sui farmaci, ecc.) ad una velocità inimmaginabile per l’uomo, accelerando processi di diagnosi spesso molto critici per le malattie rare o suggerendo percorsi di cura ottimali in caso di tumori o malattie particolari. Non solo, gli assistenti virtuali basati su AI iniziando a vedersi con maggiore frequenza nelle sale operatorie, a supporto del personale di accoglienza o di chi offre servizi di primo soccorso.

C) Cybercrime e gestione dei rischi hanno bisogno dell’IA

La prevenzione delle frodi è una delle applicazioni più mature dove l’Intelligenza Artificiale si concretizza con quelli che tecnicamente vengono chiamati “advanced analytics”, analisi molto sofisticate che correlano dati, eventi, comportamenti ed abitudini per capire in anticipo eventuali attività fraudolente (come la clonazione di una carta di credito o l’esecuzione di una transazione non autorizzata); questi sistemi possono in realtà trovare applicazione anche all’interno di altri contesti aziendali, per esempio per la mitigazione dei rischi, la protezione delle informazioni e dei dati, la lotta al cybercrime.

D) Artificial Intelligence e Supply Chain Management

L’ottimizzazione e la gestione della catena di approvvigionamento e di distribuzione richiede ormai analisi sofisticate e, in questo caso, l’AI è il sistema efficace che permette di connettere e monitorare tutta la filiera e tutti gli attori coinvolti; un caso molto significativo di applicazione dell’Intelligenza Artificiale al settore del Supply Chain Management è relativo alla gestione degli ordini (in questo caso le tecnologie che sfruttano l’intelligenza artificiale non solo mirano alla semplificazione dei processi ma anche alla totale integrazione di essi, dagli acquisti fino all’inventario, dal magazzino alle vendite fino ad arrivare addirittura all’integrazione con il Marketing per la gestione preventiva delle forniture in funzione delle attività promozionali o della campagne di comunicazione).

E) L’Intelligenza Artificiale a beneficio della Pubblica Sicurezza

La capacità di analizzare grandissime quantità di dati in tempo reale e di “dedurre” attraverso correlazioni di eventi, abitudini, comportamenti, attitudini, sistemi e dati di geo-localizzazione e monitoraggio degli spostamenti di cose e persone offre un potenziale enorme per il miglioramento dell’efficienza e dell’efficacia della sicurezza pubblica, per esempio per la sicurezza e la prevenzione dei crimini in aeroporti, stazioni ferroviarie e città metropolitane oppure per la prevenzione e la gestione della crisi in casi di calamità naturali come terremoti e tsunami.

Lavoro e Intelligenza Artificiale

Quando si parla di Intelligenza Artificiale non si può non toccare aspetti etici e sociali come quelli legati al lavoro e all’occupazione dato che i timori nella comunità globale crescono.

Timori giustificati se si pensa che la metà delle attività lavorative di oggi potrebbe essere automatizzata entro il 2055. Qualsiasi tipo di lavoro è soggetto a una automazione parziale ed è partendo da questa considerazione che nel report A Future That Works: Automation, Employment and Productivity, realizzato da McKinsey Global Institute – MGI (un report di 148 pagine, disponibile sul sito del World Economic Forum di Davos, dove è stato ufficialmente presentato nello scorso gennaio), si stima che circa la metà dell’attuale forza lavoro possa essere impattata dall’automazione grazie alle tecnologie già note e in uso oggi.

In realtà a mettere un freno ai timori che da mesi spopolano via web e social sulla responsabilità dell’Intelligenza Artificiale nel “distruggere” posti di lavoro arrivano diversi studi. Di seguito segnaliamo quelli più significativi:

Intelligenza Artificiale e coscienza: i robot potranno pensare? Penseranno come noi?

Uno dei temi ampiamente dibattuti sia nella comunità scientifica sia tra gli esperti di filosofia, sociologia, politica ed economia riguarda le capacità di pensiero dei robot o, più in generale, i confini tra Intelligenza Artificiale e coscienza “umana”.

Anche se le tecnologie di Intelligenza Artificiale stanno progredendo a passo spedito, per molti versi i computer sono ancora al di sotto delle prestazioni umane.

«Una coscienza umana non è fatta dal solo riconoscimento di modelli o dalla rapida elaborazione di numeri», sostiene Hakwan Lau, un neuroscienziato dell’Università di California, Los Angeles. «Capire come colmare il divario tra l’intelligenza umana e quella artificiale sarebbe come trovare il Santo Graal».

Per affrontare la controversa questione se i computer possano o meno sviluppare una coscienza, alcuni ricercatori dell’Università della California hanno cercato – in prima analisi – di esplorare come sorge la coscienza nel cervello umano. Così facendo, hanno delineato tre livelli chiave della coscienza umana che potrebbero servire come roadmap per progettare un’Intelligenza Artificiale veramente consapevole.

Gli scienziati hanno notato che alcuni robot hanno raggiunto capacità pari ad un livello C2 degli uomini (livello che si riferisce alla capacità di monitorare i propri pensieri e calcoli;  in altre parole la capacità di essere auto-consapevoli), in quanto possono monitorare i loro progressi nell’apprendimento di come risolvere i problemi.

Ad oggi, i ricercatori suggeriscono che la coscienza umana può derivare da un insieme di computazioni specifiche. «Una volta che saremo in grado di chiarire in termini computazionali quali possono essere le differenze negli esseri umani tra conscio e inconscio, codificarlo nei computer non può essere così difficile», è l’opinione del ricercatore Lau che apre indubbiamente nuovi scenari sul futuro dei robot coscienti.

I rischi dell’Intelligenza Artificiale

Gli economisti si interrogano da tempo su quali strumenti attivare per impedire che l’evoluzione della società verso un’economia a sempre minore intensità di lavoro – la cui evoluzione è oggi accelerata dall’Intelligenza Artificiale – non si traduca in un impoverimento della popolazione, situazione che richiederebbe una “redistribuire” della ricchezza considerando che la maggior parte di questa verrà prodotta dalle macchine.

Alle tematiche sociali, si affiancano questioni etiche sullo sviluppo e l’evoluzione dell’Intelligenza Artificiale e delle nuove tecnologie. Ci si interroga da tempo sul “potere degli algoritmi” e dei big data, domandandosi se questi segneranno la superiorità del cervello delle macchine su quello dell’uomo. I timori (alimentati in rete da noti personaggi di spicco come Stephen Hawking ed Elon Musk) possono apparire eccessivi ma sottovalutare gli impatti dell’Intelligenza Artificiale potrebbe rappresentare il rischio numero uno.

A mettere in guardia dai rischi dell’Intelligenza Artificiale è stato, primo fra altri personaggi di spicco, il noto  Stephen Hawking: «non siamo in grado di prevedere cosa riusciremo a fare quando le nostre menti saranno amplificate dall’Intelligenza Artificiale – ha detto il fisico durante l’ultimoWeb Summit di Lisbona -. Forse, con strumenti nuovi, riusciremo anche a rimediare a tutti i danni che stiamo provocando alla natura, e magari saremo anche in grado di  trovare soluzioni definitive a povertà e malattie. Ma… è anche possibile che con la distruzione di milioni di posti di lavoro venga distrutta la nostra economia e la nostra società».

«L’intelligenza artificiale potrebbe essere il peggior evento della storia della nostra civiltà – è la visione drammatica dell’astrofisico -. Porta con sé pericoli, come potenti armi automatiche, nucleari o biologiche, addirittura abilita nuovi modi per permettere a pochi individui ed organizzazioni di opprimere e controllare moltitudini di uomini (e cose). Dobbiamo prepararci a gestirla per evitare che questi potenziali rischi prendano forma e diventino realtà».

Sorprende anche che l’ultimo monito sia venuto proprio da un imprenditore di successo come Elon Musk. “L’intelligenza artificiale è il più grande rischio cui la nostra civilizzazione si trova a far fronte”, ha avvertito. In particolare ha evidenziato i rischi di una guerra scatenata dai computer o una catastrofe occupazionale dovuta a decisioni basate soltanto sulle elaborazioni dell’Intelligenza Artificiale, unico vero pilastro dominante dell’economia del futuro capace di riservare alle macchine migliaia, forse milioni, di lavori oggi ancora gestiti  agli uomini.

Intelligenza Artificiale decentralizzata: perché potrebbe essere la risposta ai problemi etici

La comunità scientifica internazionale sta lavorando da tempo alla cosiddetta superintelligenza, una intelligenza artificiale generale [la ricerca in questo campo ha come obiettivo la creazione di una AI – Artificial Intelligence capace di replicare completamente l’intelligenza umana; fa riferimento alla branca della ricerca dell’intelligenza artificiale forte secondo la quale è possibile per le macchine diventare sapienti o coscienti di sé, senza necessariamente mostrare processi di pensiero simili a quelli umani – ndr]. Tuttavia i rischi sono elevatissimi, soprattutto se a portare avanti la ricerca sono poche aziende in grado di dedicare ingenti risorse (economiche e di competenze) ai progetti più innovativi.

Decentralizzare l’intelligenza artificiale e fare in modo che possa essere progettata, sviluppata e controllata da una grande rete internazionale attraverso la programmazione open source è per molti ricercatori e scienziati l’approccio più sicuro per creare non solo la superintelligenza ma democratizzare l’accesso alle intelligenze artificiali, riducendo i rischi di monopolio e quindi risolvendo problemi etici e di sicurezza.

Oggi, una delle preoccupazioni maggiori in tema di intelligenza artificiale riguarda proprio l’utilizzo dei dati e la fiducia con la quale le AI sfruttano dati ed informazioni per giungere a determinate decisioni e/o compiere azioni specifiche. La mente umana, specie quando si tratta di Deep Learning (per cui vi rimandiamo alla lettura del servizio “Cos’è il Machine Learning, come funziona e quali sono le sue applicazioni” per avere un quadro di maggior dettaglio), non è in grado di interpretare i passaggi compiuti da una intelligenza artificiale attraverso una rete neurale profonda e deve quindi “fidarsi” del risultato raggiunto da una AI senza capire e sapere come è giunta a tale conclusione.

In questo scenario, la blockchain sembra essere la risposta più rassicurante: l’uso della tecnologia blockchain consente registrazioni immutabili di tutti i dati, di tutte le variabili e  di tutti i processi utilizzati dalle intelligenze artificiali per arrivare alle loro conclusioni/decisioni. Ed è esattamente ciò che serve controllare in modo semplice l’intero processo decisionale dell’AI.

PER APPROFONDIMENTI SUGGERIAMO LA LETTURA DI:

 

Film Intelligenza Artificiale, la guida

Parlare di casi applicativi per l’Intelligenza Artificiale è impossibile senza citare il mondo del Cinema e la grandissima filmografia che esiste proprio intorno ai Robot, all’AI, al Machine Learning… Una cinematografia che vale la pena di studiare a fondo proprio perché spesso foriera di visioni e preziose anticipazioni del mondo e del mercato che in molti casi si sono poi concretizzate nell’arco di pochi anni. Nasce con questo spirito di monitoraggio e analisi la nostra “guida speciale” denominata Film Intelligenza Artificiale, costantemente aggiornata anche grazie al contributo dei lettori.

 

Intelligenza Artificiale Film

 

Giornalista del mondo Tech | Ho scoperto di essere una “multipotentialite” innamorata di #Innovation #Tech #AI | Il mio motto: sempre in marcia a caccia di innovazione | Direttore di AI4Business e condirettore di Digital4Trade

FacebookTwitterLinkedIn

4 Comments

8 Trackbacks / Pingbacks

  1. Risk Management: investire su dati e infrastrutture per trarne valore
  2. Risk Management, le soluzioni per assicurare la continuità operativa
  3. Trasformazione digitale data intensive: come cambia il ruolo del CIO
  4. I retailer italiani investono nel digitale più della media - Pagamenti Digitali
  5. Tre giorni di payment innovation al Salone dei Pagamenti 2018 - Pagamenti Digitali
  6. Big Data & Analytics in scena a Tech Companies Lab - Big Data 4Innovation
  7. Intelligenza artificiale, cosa e chi c’è dietro questo mercato - Big Data 4Innovation
  8. HIPay partecipa al Salone dei Pagamenti con un focus sulla AI - Pagamenti Digitali

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


FacebookTwitterLinkedIn

Questo sito utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all’uso dei cookie. Leggi la nostra Cookie Policy per esteso

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi