Intelligenza artificiale (AI): cos’è, come funziona e applicazioni 2021

AI credit score
  1. Home
  2. Intelligenza Artificiale
  3. Intelligenza artificiale (AI): cos’è, come funziona e applicazioni 2021

intelligenza artificialeTante, forse troppe, parole attorno al caldissimo tema dell’intelligenza artificiale con il paradosso che in moltissimi ancora non ne capiscono il significato e l’importanza.

Cerchiamo di capire di cosa si tratta e perché tutti ne stanno parlando, tracciando un quadro sulle attuali tecnologie in uso e gli ambiti di maggior focalizzazione dell’intelligenza artificiale per il business.

 

Cos’è l’intelligenza artificiale? In modo semplicistico potremmo definire l’intelligenza artificiale come l’abilità di un sistema tecnologico di risolvere problemi o svolgere compiti e attività tipici della mente e dell’abilità umane. Guardando al settore informatico, potremmo identificare l’AI – artificial intelligence come la disciplina che si occupa di realizzare macchine (hardware e software) in grado di “agire” autonomamente (risolvere problemi, compiere azioni, ecc.).

Ascolta “Intelligenza artificiale: gli aspetti etici e giuridici” su Spreaker.

Cos’è l’intelligenza artificiale (AI): una definizione

L’intelligenza artificiale è una disciplina dell’informatica che si occupa di creare macchine in grado di imitare le capacità dell’intelligenza umana attraverso lo sviluppo di algoritmi che consentono di mostrare attività intelligente. 

Il fermento attuale attorno a questa disciplina si spiega con la maturità tecnologica raggiunta sia nel calcolo computazionale (oggi ci sono sistemi hardware molto potenti, di ridotte dimensioni e con bassi consumi energetici), sia nella capacità di analisi in real-time ed in tempi brevi di enormi quantità di dati e di qualsiasi forma (Analytics).

Nella sua accezione puramente informatica, l’intelligenza artificiale potrebbe essere classificata come la disciplina che racchiude le teorie e le tecniche pratiche per lo sviluppo di algoritmi che consentano alle macchine (in particolare ai ‘calcolatori’) di mostrare attività intelligente, per lo meno in specifici domini e ambiti applicativi.

Già da questo primo tentativo di definizione è evidente che bisognerebbe attingere ad una classificazione formale delle funzioni sintetiche/astratte di ragionamento, meta-ragionamento e apprendimento dell’uomo per poter costruire su di essi dei modelli computazionali in grado di concretizzare tali forme di ragionamento e apprendimento (compito arduo dato che ancora oggi non si conosce a fondo il reale funzionamento del cervello umano).

Non solo, quando si parla di capacità di ragionamento e apprendimento automatico sulla base dell’osservazione spesso si incappa nell’alveo del Cognitive Computing che va però inteso come l’insieme della piattaforme tecnologiche basate sulle discipline scientifiche dell’intelligenza artificiale (tra cui Machine Learning e Deep Learning) e il Signal Processing (la capacità di elaborare i segnali).

La storia dell’intelligenza artificiale: dalle reti neurali degli anni ’50 a oggi

L’interesse della comunità scientifica per l’intelligenza artificiale ha inizio però da molto lontano: il primo vero progetto di artificial intelligence (ormai nota con l’acronimo AI) risale al 1943 quando i due ricercatori Warren McCulloch e Walter Pitt proposero al mondo scientifico il primo neurone artificiale cui seguì poi nel 1949 il libro di Donald Olding Hebb, psicologo canadese, grazie al quale vennero analizzati in dettaglio i collegamenti tra i neuroni artificiali ed i modelli complessi del cervello umano.

I primi prototipi funzionanti di reti neurali [cioè modelli matematici/informatici sviluppati per riprodurre il funzionamento dei neuroni biologici per risolvere problemi di intelligenza artificiale intesa, in quegli anni, come la capacità di una macchina di compiere funzioni e fare ragionamenti come una mente umana – ndr] arrivarono poi verso la fine degli anni ’50 e l’interesse del pubblico si fece maggiore grazie al giovane Alan Turing che già nel 1950 cercava di spiegare come un computer possa comportarsi come un essere umano.

Il termine artificial intelligence in realtà parte “ufficialmente” dal matematico statunitense John McCarthy (nel 1956) e con esso il “lancio” dei primi linguaggi di programmazione (Lisp nel 1958 e Prolog nel 1973) specifici per l’AI. Da lì in poi la storia dell’intelligenza artificiale è stata abbastanza altalenante caratterizzata da avanzate significative dal punto di vista dei modelli matematici (sempre più sofisticati modellati per “imitare” alcune funzionalità cerebrali come il riconoscimento di pattern) ma con alti e bassi dal punto di vista della ricerca sull’hardware e sulle reti neurali.

La prima grande svolta su quest’ultimo fronte è arrivata negli anni ’90 con l’ingresso sul mercato “allargato” (arrivando cioè al grande pubblico) dei processori grafici, le Gpu – graphics processing unit (chip di elaborazione dati molto più veloci delle Cpu, provenienti dal mondo del gaming ed in grado di supportare processi complessi molto più rapidamente, per altro operando a frequenze più basse e consumando meno energia rispetto alle “vecchie” Cpu).

L’ondata più recente è arrivata nell’ultimo decennio con lo sviluppo dei cosiddetti “chip neuromorfici”, ossia microchip che integrano elaborazione dati e storage in un unico micro componente (grazie all’accelerazione che ha avuto anche la ricerca nel campo delle nanotecnologie) per emulare le funzioni sensoriali e cognitive del cervello umano (ambito quest’ultimo dove si stanno concentrando anche molte startup).

Guardando un po’ alla storia passata, è alla fine degli anni ’50 che risale il primo modello di rete neurale: si trattava del cosiddetto “percettrone”, proposto nel 1958 da Frank Rosenblatt (noto psicologo e computer scientist americano), una rete con uno strato di ingresso ed uno di uscita ed una regola di apprendimento intermedia basata sull’algoritmo ‘error back-propagation’ (minimizzazione degli errori); la funzione matematica, in sostanza, in base alla valutazione sui dati effettivi in uscita – rispetto ad un dato ingresso – altera i pesi delle connessioni (sinapsi) provocando una differenza tra l’uscita effettiva e quella desiderata.

Alcuni esperti del settore fanno risalire proprio al percettrone di Rosenblatt la nascita della cibernetica e dell’intelligenza artificiale [Artificial Intelligence – AI: il termine in realtà fu coniato nel 1956 dal matematico statunitense John McCarthy, ed è del 1950 il primo assunto di Alan Turing nel quale spiega come un computer possa comportasri come un essere umano – ndr], anche se negli anni immediatamente successivi i due matematici Marvin Minsky e Seymour Papert dimostrarono i limiti del modello di rete neurale di Rosenblatt: il percettrone era in grado di riconoscere, dopo opportuno “addestramento” solo funzioni linearmente separabili (attraverso il training set – l’algoritmo di apprendimento – nello spazio vettoriale degli input, si riescono a separare quelli che richiedono un output positivo da quelli che richiedono un output negativo); inoltre, le capacità computazionali di un singolo percettrone erano limitate e le prestazioni fortemente dipendenti sia dalla scelta degli input sia dalla scelta degli algoritmi attraverso i quali ‘modificare’ le sinapsi e quindi gli output.

I due matematici Minsky e Papert intuirono che costruire una rete a più livelli di percettroni avrebbe potuto risolvere problemi più complessi ma in quegli anni la crescente complessità computazionale richiesta dall’addestramento delle reti mediante gli algoritmi non aveva ancora trovato una risposta sul piano infrastrutturale (non esistevano sistemi hardware in grado di ‘reggere’ tali operazioni).

La prima svolta importante dal punto di vista tecnologico arriva tra la fine degli anni ’70 e il decennio degli anni ’80 con lo sviluppo delle Gpu che hanno ridotto notevolmente i tempi di addestramento delle reti, abbassandoli di 10/20 volte.

Reti Neurali cosa sono

Film intelligenza artificiale, la guida

Parlare di casi applicativi per l’intelligenza artificiale è impossibile senza citare il mondo del cinema e la grandissima filmografia che esiste proprio intorno ai robot, all’AI, al Machine Learning. Una cinematografia che vale la pena di studiare a fondo proprio perché spesso foriera di visioni e preziose anticipazioni del mondo e del mercato che in molti casi si sono poi concretizzate nell’arco di pochi anni. Nasce con questo spirito di monitoraggio e analisi la nostra “guida speciale” denominata Film intelligenza artificiale, costantemente aggiornata anche grazie al contributo dei lettori.

 

Intelligenza Artificiale Film

Tipi di intelligenza artificiale 

Già da questo rapidissimo “viaggio storico” si intuisce che dare una definizione esatta di intelligenza artificiale è un compito arduo ma, analizzandone le evoluzioni, siamo in grado di tracciarne i contorni e quindi di fare alcune importanti classificazioni.

Intelligenza artificiale debole e forte: cosa sono e in cosa si distinguono

Prendendo come base di partenza il funzionamento del cervello uomo (pur sapendo che ancora oggi non se ne comprende ancora a fondo l’esatto meccanismo), una intelligenza artificiale dovrebbe saper compiere in alcune azioni/funzioni tipiche dell’uomo:

– agire umanamente (cioè in modo indistinto rispetto ad un essere umano);

– pensare umanamente (risolvendo un problema con funzioni cognitive);

– pensare razionalmente (sfruttando cioè la logica come fa un essere umano);

– agire razionalmente (avviando un processo per ottenere il miglior risultato atteso in base alle informazioni a disposizione, che è ciò che un essere umano, spesso anche inconsciamente, fa d’abitudine).

Queste considerazioni sono di assoluta importanza perché permettono di classificare l’AI in due grandi “filoni” di indagine/ricerca/sviluppo in cui per altro la comunità scientifica si è trovata concorde, quello dell’AI debole e dell’AI forte:

A) Debole (weak AI)

Identifica sistemi tecnologici in grado di simulare alcune funzionalità cognitive dell’uomo senza però raggiungere le reali capacità intellettuali tipiche dell’uomo (parliamo di programmi matematici di problem-solving con cui si sviluppano funzionalità per la risoluzione dei problemi o per consentire alle macchine di prendere decisioni);

B) Forte (strong AI)

In questo caso si parla di “sistemi sapienti” (alcuni scienziati si spingono a dire addirittura “coscienti di sé”) che possono quindi sviluppare una propria intelligenza senza emulare processi di pensiero o capacità cognitive simili all’uomo ma sviluppandone una propria in modo autonomo.

Machine Learning e Deep Learning, un po’ di chiarezza

La classificazione AI debole e AI forte sta alla base della distinzione tra Machine Learning e Deep Learning, due ambiti di studio che rientrano nella più ampia disciplina dell’intelligenza artificiale che meritano un po’ di chiarezza, dato che ne sentiremo parlare sempre più spesso nei prossimi anni.

Dopo le opportune chiarificazioni, possiamo ora spingerci a definire l’intelligenza artificiale come la capacità delle macchine di svolgere compiti e azioni tipici dell’intelligenza umana (pianificazione, comprensione del linguaggio, riconoscimento di immagini e suoni, risoluzione di problemi, riconoscimento di pattern, ecc.), distinguibile in AI debole e AI forte.

Ciò che caratterizza l’intelligenza artificiale da un punto di vista tecnologico e metodologico è il metodo/modello di apprendimento con cui l’intelligenza diventa abile in un compito o azione. Questi modelli di apprendimento sono ciò che distinguono Machine Learning e Deep Learning.

Machine Learning Cos'è

 

Come funziona l’intelligenza artificiale

Ciò che abbiamo visto finora è il funzionamento tecnologico dell’intelligenza artificiale (IA). Dal punto di vista delle abilità intellettuali, il funzionamento di una AI si sostanzia principalmente attraverso quattro differenti livelli funzionali:

comprensione: attraverso la simulazione di capacità cognitive di correlazione dati ed eventi l’AI (artificial intelligence) è in grado di riconoscere testi, immagini, tabelle, video, voce ed estrapolarne informazioni;

ragionamento: mediante la logica i sistemi riescono a collegare le molteplici informazioni raccolte (attraverso precisi algoritmi matematici e in modo automatizzato);

apprendimento: in questo caso parliamo di sistemi con funzionalità specifiche per l’analisi degli input di dati e per la loro “corretta” restituzione in output (è il classico esempio dei sistemi di Machine Learning che con tecniche di apprendimento automatico portano le AI ad imparare e a svolgere varie funzioni);

interazione (Human Machine Interaction): in questo caso ci si riferisce alle modalità di funzionamento dell’AI in relazione alla sua interazione con l’uomo. È qui che stanno fortemente avanzando i sistemi di Nlp – Natural Language Processing, tecnologie che consentono all’uomo di interagire con le macchine (e viceversa) sfruttando il linguaggio naturale.

5 Esempi di intelligenza artificiale del 2021

Le Over The Top come Facebook, Google, Amazon, Apple e Microsoft stanno battagliando non solo per portare al proprio interno startup innovative nel campo dell’AI ma anche per avviare ed alimentare progetti di ricerca di cui già oggi vediamo alcuni frutti (come il riconoscimento delle immagini, dei volti, le applicazioni vocali, le traduzioni linguistiche, ecc.).

Oggi la maturità tecnologica ha fatto sì che l’Intelligenza Artificiale uscisse dall’alveo della ricerca per entrare di fatto nella vita quotidiana. Se come consumatori ne abbiamo importanti “assaggi” soprattutto grazie a Google e Facebook, nel mondo del business la maturità (e la disponibilità) delle soluzioni tecnologiche ha portato la potenzialità dell’AI in molti segmenti.

Questi quelli più in fermento in questo momento:

A) Sales

L’intelligenza artificiale applicata alle Vendite ha già dimostrato importanti risultati, in particolare grazie all’utilizzo di sistemi esperti [applicazioni che rientrano nella branca dell’intelligenza artificiale perché riproducono le prestazioni di una persona esperta di un determinato dominio di conoscenza o campo di attività – ndr].

Le soluzioni che al loro interno integrano sistemi esperti permettono agli utenti (anche non esperti) di risolvere problemi particolarmente complessi per i quali servirebbe necessariamente l’intervento di un essere umano esperto dello specifico settore, attività o dominio di conoscenza ove si presenta il problema.

In parole semplici, sono sistemi che permettono alle persone di trovare una soluzione ad un problema anche senza richiedere l’intervento di un esperto.

Dal punto di vista tecnologico, i sistemi esperti consentono di mettere in atto, in modo automatico, delle procedure di inferenza (ossia di logica: con un processo induttivo o deduttivo si giunge ad una conclusione a seguito dell’analisi di una serie di fatti o circostanze).

In particolare i cosiddetti sistemi esperti basati su regole sfruttano i principi molto noti nell’informatica IF-THEN dove If è la condizione e Then l’azione (se si verifica una determinata condizione, allora avviene una certa azione).

Il perché i sistemi esperti rientrano nella branca dell’intelligenza artificiale anziché nell’alveo dei normali programmi software sta nel fatto che dati una serie di fatti, i sistemi esperti, grazie alle regole di cui sono composti, riescono a dedurre nuovi fatti.

Questi sistemi risultano particolarmente performanti e adatti ai configuratori commerciali (soluzioni utilizzate dalle Vendite in business model dove la proposta risulta particolarmente complessa per la natura stessa dei prodotti commercializzati, per le combinazioni possibili delle soluzioni, per le variabili che incidono sul risultato finale e, quindi, sulla realizzazione stessa del prodotto ed il suo prezzo).

In generale, un configuratore di prodotto deve assolvere il compito di semplificazione nella scelta di un bene da acquistare; processo non sempre immediato quando le variabili in gioco sono numerose (dimensionamento, numero elevato di componenti, utilizzo di materiali particolari, combinazione tra materie prime e materiali vari con conseguenti impatti sulle proprietà fisiche, meccaniche o chimiche, ecc.).

Quando a dover essere configurati sono prodotti che vanno calati in progetti complessi (pensiamo agli impianti manifatturieri oppure a sistemi e macchinari che devono operare in particolari condizioni climatiche o ambienti industriali “critici”), i configuratori di prodotto devono essere “esperti ed intelligenti” al punto da mettere gli utenti in condizioni di cercare, individuare, valutare e richiedere in autonomia quello che serve, senza ricorrere all’esperto tecnico.

E’ proprio qui che i sistemi esperti – come quelli sviluppati da Myti – esprimono al meglio il loro potenziale.

DECLARO, per esempio, è un “rule engine” (motore di regole) che permette al configuratore di prodotto di proporre all’utente non esperto le domande giuste, alle cui risposte seguono altre domande corrette.

L’accumularsi di esperienze (tra domande e risposte) non solo accelera e rende più efficace la configurazione della soluzione adatta alle proprie esigenze, ma diventa anche un sistema di knowledge base aziendale che si arricchisce in continuazione.

Nella soluzione messa a punto da Myti il “motore” di domande e risposte si presenta come comune interfaccia web. Le regole If-Than sono costruite a monte dall’esperto di dominio ma il sistema è poi in grado di fare delle domande a un utente non esperto e in base alle risposte – accedendo alla conoscenza dell’esperto che ha definito le regole – fare altre domande che aiutano l’utente (per esempio il venditore) alla scelta e poi alla configurazione di un prodotto complesso o una articolata proposta commerciale.

Declaro - Myti

B) Marketing 

Assistenti vocali/virtuali (chatbot, Siri di Apple, Cortana di Microsoft, Alexa di Amazon) che sfruttano l’intelligenza artificiale sia per il riconoscimento del linguaggio naturale sia per l’apprendimento e l’analisi delle abitudini e dei comportamenti degli utenti; analisi in real-time di grandi moli di dati per la comprensione del “sentiment” e delle esigenze delle persone per migliorare customer care, user experience, servizi di assistenza e supporto ma anche per creare e perfezionare sofisticati meccanismi di ingaggio con attività che si spingono fino alla previsione dei comportamenti di acquisto da cui derivare strategie di comunicazione e/o proposta di servizi.

L’AI nel Marketing sta mostrando da un paio d’anni tutta la sua massima potenza e l’area di impiego maggiore è sicuramente quella della gestione della relazione con gli utenti.

Artificial Intelligence Marketing (AIM), algoritmi per persuadere le persone

Da diversi anni è nata una vera e propria disciplina, l’Artificial Intelligence Marketing (AIM), una branca del Marketing che sfrutta le più moderne tecnologie che rientrano nell’ambito dell’Intelligenza Artificiale, come Machine Learning e Nlp – Natural Language Processing, integrate a tecniche matematiche/statistiche (come quelle delle reti bayesiane) e di Marketing comportamentale (behavioral targeting).

Si tratta, in concreto, dell’utilizzo degli algoritmi di intelligenza artificiale e Machine Learning con l’obiettivo di persuadere le persone a compiere un’azione, acquistare un prodotto o accedere ad un servizio (in altre parole, rispondere ad una “call to action”)

Aggregazione e analisi dei dati (anche quelli destrutturati e basati su linguaggio naturale) in un processo continuo di apprendimento e miglioramento per identificare di volta in volta le azioni, le strategie e le tecniche di comunicazione e vendita probabilisticamente più efficaci (quelle che hanno il potenziale più elevato di efficacia/successo per singoli target di utenti). È questo, in sostanza, quello che fa l’AIM

C) Sanità

L’AI ha avuto il pregio di migliorare molti sistemi tecnologici già in uso da persone con disabilità (per esempio i sistemi vocali sono migliorati al punto da permettere una relazione/comunicazione del tutto naturale anche a chi non è in grado di parlare) ma è sul fronte della diagnosi e cura di tumori e malattie rare che si potranno vedere le nuove capacità dell’AI.

Già oggi sono disponibili sul mercato sistemi cognitivi in grado di attingere, analizzare e apprendere da un bacino infinito di dati (pubblicazioni scientifiche, ricerca, cartelle cliniche, dati sui farmaci, ecc.) ad una velocità inimmaginabile per l’uomo, accelerando processi di diagnosi spesso molto critici per le malattie rare o suggerendo percorsi di cura ottimali in caso di tumori o malattie particolari.

Non solo, gli assistenti virtuali basati su AI iniziando a vedersi con maggiore frequenza nelle sale operatorie, a supporto del personale di accoglienza o di chi offre servizi di primo soccorso.

D) Cybersecurity

La prevenzione delle frodi è una delle applicazioni più mature dove l’Intelligenza Artificiale si concretizza con quelli che tecnicamente vengono chiamati “advanced analytics”, analisi molto sofisticate che correlano dati, eventi, comportamenti ed abitudini per capire in anticipo eventuali attività fraudolente (come la clonazione di una carta di credito o l’esecuzione di una transazione non autorizzata); questi sistemi possono in realtà trovare applicazione anche all’interno di altri contesti aziendali, per esempio per la mitigazione dei rischi, la protezione delle informazioni e dei dati, la lotta al cybercrime.

E) Supply chain

L’ottimizzazione e la gestione della catena di approvvigionamento e di distribuzione richiede ormai analisi sofisticate e, in questo caso, l’AI è il sistema efficace che permette di connettere e monitorare tutta la filiera e tutti gli attori coinvolti; un caso molto significativo di applicazione dell’intelligenza artificiale al settore del Supply chain management è relativo alla gestione degli ordini (in questo caso le tecnologie che sfruttano l’intelligenza artificiale non solo mirano alla semplificazione dei processi ma anche alla totale integrazione di essi, dagli acquisti fino all’inventario, dal magazzino alle vendite fino ad arrivare addirittura all’integrazione con il marketing per la gestione preventiva delle forniture in funzione delle attività promozionali o della campagne di comunicazione).

F) Sicurezza pubblica

La capacità di analizzare grandissime quantità di dati in tempo reale e di “dedurre” attraverso correlazioni di eventi, abitudini, comportamenti, attitudini, sistemi e dati di geo-localizzazione e monitoraggio degli spostamenti di cose e persone offre un potenziale enorme per il miglioramento dell’efficienza e dell’efficacia della sicurezza pubblica.

Per esempio, per la sicurezza e la prevenzione dei crimini in aeroporti, stazioni ferroviarie e città metropolitane oppure per la prevenzione e la gestione della crisi in casi di calamità naturali come terremoti e tsunami.

Intelligenza artificiale: aggiornamento 2021

GPT-3, l’AI che scrive testi

Nel corso del 2020, l’azienda OpenAI, ha presentato il sistema GPT-3, un potente “strumento intelligente” per la produzione di testi. Basato su tecniche di pre-training senza supervisione nello sviluppo di sistemi Natural Language Processing. GPT-3 è un “generatore di linguaggio” ed è in grado di scrivere articoli e saggi in totale autonomia.

GPT-3 è stato preceduto da GPT-2, che era già in grado di scrivere testi in una gamma di stili diversi a seconda della frase inserita come input. Per capire la differenza fra i due sistemi basti pensare che GPT-3 ha 175 miliardi di “parametri”, cioè i valori che la rete neurale utilizzata nel modello ottimizza durante l’addestramento), mentre GPT-2 ne ha “appena” 1,5 miliardi.

GPT-3: poltrone, avocado e il futuro dell’intelligenza artificiale

GPT-3: apprendimento di modelli statistici del linguaggio, conoscenza e intelligenza naturale

DALL-E, dalle parole alle immagini

Ancora l’azienda OpenAI ha rilasciato nella seconda metà del 2020 un nuovo modello di intelligenza artificiale: DALL-E. Il sistema è capace di produrre immagini da descrizioni testuali esprimibili in linguaggio naturale, sulla base di un input di testo o testo + immagine, ottenendo in uscita una immagine artificiale. Il nome trae origine dal pittore Salvador Dalì e dal robot cinematografico WALL-E ed è una variante del modello GPT-3.

LaMDA di Google e Wav2vec-U di Facebook

Ai sistemi GPT di OpenAI hanno fatto seguito i modelli di linguaggio naturale LaMDA di Google e Wav2vec-U di Facebook. LaMDA (acronimo di “Language Model for Dialogue Applications”), è basato (come BERT e GPT-3) su tecnologia Transformer e nasce dall’intento di Google di comprendere meglio le intenzioni degli utenti quando fanno una ricerca sul web.

Wav2vec-U è invece un metodo per creare sistemi di riconoscimento del parlato senza il bisogno di avere trascrizioni sulle quali addestrare il modello.

Deep face: “questa persona non esiste”

ThisPersonDoesNotExist.com è un sito che, utilizzando le reti neurali, generare volti falsi, ossia del tutto inventati. Creato da Philip Wang, autore del software di Uber, il sito utilizza un algoritmo StyleGAN sviluppato dalla NVIDIA Corporation, una rete neurale di tipo GAN (Generative Adversarial Network).

Deep Nostalgia, far rivivere il passato

Sulla scia di deep face, ai primi del 2021 è apparso un nuovo sistema basato su AI chiamato “Deep Nostalgia”, opera dell’azienda My Heritage. Si tratta di un software che “anima” foto di persone, facendole come “rivivere”. Deep Nostalgia utilizza una tecnica di computer vision chiamata Face Alignment, basata su deep neural networks.

Copilot, il software che scrive software

Gli sviluppatori di software di GitHub (Microsoft) hanno sviluppato Copilot, un software che aiuta gli sviluppatori a gestire e archiviare i codici, ossia un programma che utilizza l’intelligenza artificiale per assistere gli stessi sviluppatori. Ad esempio, si digita una query di comando e Copilot indovina l’intento del programmatore, scrivendo il resto.

Shopping assistance robot

Sta prendendo sempre più piede l’utilizzo dei robot nel settore delle vendite. Tra le loro funzioni: assistenza del cliente alla cassa, rispondere alle domande degli acquirenti circa l’ubicazione degli articoli e assisterli nella scelta. Inoltre, pulire i pavimenti e consegnare i prodotti a domicilio.

Intelligenza artificiale e Agenda Digitale in Italia

L’Intelligenza Artificiale è da tempo sui tavoli di lavoro dell’AgID ed è uno dei temi ampiamente dibattuti e studiati nell’ambito dell’Agenda Digitale Italiana per comprendere come la diffusione di nuovi strumenti e tecnologie di IA possa incidere nella costruzione di un nuovo rapporto tra Stato e cittadini e analizzare le conseguenti implicazioni sociali relative alla creazione di ulteriori possibilità di semplificazione, informazione e interazione.

Proprio seguendo questo “filone” è stata creata in Italia una Task Force, all’interno di AgID, i cui componenti  hanno il compito di:

– studiare e analizzare le principali applicazioni relative alla creazione di nuovi servizi al cittadino, definendo le strategie di gestione delle opportunità per la Pubblica Amministrazione;

– mappare a livello italiano i principali centri – universitari e non – che operano nel settore dell’intelligenza artificiale con riferimento all’applicazione operativa nei servizi al cittadino;

– mappare il lavoro già avviato da alcune amministrazioni centrali e locali proponendo azioni da intraprendere per l’elaborazione di policy strategiche;

– evidenziare e studiare le implicazioni sociali legate all’introduzione delle tecnologie di intelligenza artificiale nei servizi pubblici.

SEGUI LA PAGINA DI AGENDA DIGITALE E APPROFONDISCI sul valore dell’Intelligenza Artificiale nell’ambito dell’Agenda digitale dell’Italia

 

Lo stato dell’arte delle normative sull’intelligenza artificiale 2021

Italia

Nell’ottobre 2020 il governo italiano ha pubblicato la bozza di Strategia nazionale per l’Intelligenza Artificiale, basata sulle proposte avanzate a luglio da un gruppo di esperti. Il punto principale della Strategia è la formazione. L’ecosistema italiano dell’AI si basa su:

  • ricerca e trasferimento tecnologico;
  • produzione;
  • adozione.

L’Italia, inoltre, fa parte della Global Partnership on AI (GPAI), iniziativa internazionale che lo scopo di favorire lo sviluppo responsabile dell’intelligenza artificiale per garantire il rispetto dei diritti umani, dell’inclusione e della diversità.

Europa

Il 21 aprile 2021 la Commissione Europea ha presentato una bozza di Regolamento sull’intelligenza artificiale, regole che saranno applicate direttamente e nello stesso modo in tutti gli Stati membri e che seguono un approccio basato sul rischio: maggiore il rischio, maggiori le regole. Per le aziende che non rispetteranno queste regole saranno previste multe fino al 6% del fatturato.

Proposta di regolamentazione dell’intelligenza artificiale in Europa, un approfondimento

Il Regolamento europeo sull’intelligenza artificiale e i suoi rapporti con il GDPR

Regolamentazione dell’AI: le raccomandazioni del Centre for Information Policy Leadership

 

Lavoro e intelligenza artificiale: presente e futuro

Quando si parla di intelligenza artificiale non si può non toccare aspetti etici e sociali come quelli legati al lavoro e all’occupazione dato che i timori nella comunità globale crescono.

Timori giustificati se si pensa che la metà delle attività lavorative di oggi potrebbe essere automatizzata entro il 2055.

Qualsiasi tipo di lavoro è soggetto a una automazione parziale ed è partendo da questa considerazione che nel report A Future That Works: Automation, Employment and Productivity, realizzato da McKinsey Global Institute – MGI (un report di 148 pagine, disponibile sul sito del World Economic Forum di Davos, dove è stato ufficialmente presentato nello scorso gennaio), si stima che circa la metà dell’attuale forza lavoro possa essere impattata dall’automazione grazie alle tecnologie già note e in uso oggi.

In realtà a mettere un freno ai timori che da mesi spopolano via web e social sulla responsabilità dell’intelligenza artificiale nel “distruggere” posti di lavoro arrivano diversi studi. Di seguito segnaliamo quelli più significativi:

I rischi dell’intelligenza artificiale

Gli economisti si interrogano da tempo su quali strumenti attivare per impedire che l’evoluzione della società verso un’economia a sempre minore intensità di lavoro – la cui evoluzione è oggi accelerata dall’intelligenza artificiale – non si traduca in un impoverimento della popolazione, situazione che richiederebbe una “redistribuire” della ricchezza considerando che la maggior parte di questa verrà prodotta dalle macchine.

Alle tematiche sociali, si affiancano questioni etiche sullo sviluppo e l’evoluzione dell’intelligenza artificiale e delle nuove tecnologie.

Ci si interroga da tempo sul “potere degli algoritmi” e dei big data, domandandosi se questi segneranno la superiorità del cervello delle macchine su quello dell’uomo.

I timori (alimentati in rete da noti personaggi di spicco come Stephen Hawking ed Elon Musk) possono apparire eccessivi ma sottovalutare gli impatti dell’intelligenza artificiale potrebbe rappresentare il rischio numero uno.

A mettere in guardia dai rischi dell’intelligenza artificiale è stato, primo fra altri personaggi di spicco, il noto  Stephen Hawking: «non siamo in grado di prevedere cosa riusciremo a fare quando le nostre menti saranno amplificate dall’intelligenza artificiale – ha detto il fisico durante l’ultimo Web Summit di Lisbona -.

Forse, con strumenti nuovi, riusciremo anche a rimediare a tutti i danni che stiamo provocando alla natura, e magari saremo anche in grado di  trovare soluzioni definitive a povertà e malattie. Ma… è anche possibile che con la distruzione di milioni di posti di lavoro venga distrutta la nostra economia e la nostra società».

«L’intelligenza artificiale potrebbe essere il peggior evento della storia della nostra civiltà – è la visione drammatica dell’astrofisico -. Porta con sé pericoli, come potenti armi automatiche, nucleari o biologiche, addirittura abilita nuovi modi per permettere a pochi individui ed organizzazioni di opprimere e controllare moltitudini di uomini (e cose).

Dobbiamo prepararci a gestirla per evitare che questi potenziali rischi prendano forma e diventino realtà».

Sorprende anche che l’ultimo monito sia venuto proprio da un imprenditore di successo come Elon Musk. “L’intelligenza artificiale è il più grande rischio cui la nostra civilizzazione si trova a far fronte”, ha avvertito.

In particolare ha evidenziato i rischi di una guerra scatenata dai computer o una catastrofe occupazionale dovuta a decisioni basate soltanto sulle elaborazioni dell’intelligenza artificiale, unico vero pilastro dominante dell’economia del futuro capace di riservare alle macchine migliaia, forse milioni, di lavori oggi ancora gestiti  agli uomini.

 

White Paper - Application Management: come modernizzare l’azienda grazie a un partner esperto

Intelligenza artificiale decentralizzata: perché potrebbe essere la risposta ai problemi etici

La comunità scientifica internazionale sta lavorando da tempo alla cosiddetta superintelligenza, una intelligenza artificiale generale [la ricerca in questo campo ha come obiettivo la creazione di una AI – artificial intelligence capace di replicare completamente l’intelligenza umana; fa riferimento alla branca della ricerca dell’intelligenza artificiale forte secondo la quale è possibile per le macchine diventare sapienti o coscienti di sé, senza necessariamente mostrare processi di pensiero simili a quelli umani – ndr].

Tuttavia i rischi sono elevatissimi, soprattutto se a portare avanti la ricerca sono poche aziende in grado di dedicare ingenti risorse (economiche e di competenze) ai progetti più innovativi.

Decentralizzare l’intelligenza artificiale e fare in modo che possa essere progettata, sviluppata e controllata da una grande rete internazionale attraverso la programmazione open source è per molti ricercatori e scienziati l’approccio più sicuro per creare non solo la superintelligenza ma democratizzare l’accesso alle intelligenze artificiali, riducendo i rischi di monopolio e quindi risolvendo problemi etici e di sicurezza.

Oggi, una delle preoccupazioni maggiori in tema di intelligenza artificiale riguarda proprio l’utilizzo dei dati e la fiducia con la quale le AI sfruttano dati ed informazioni per giungere a determinate decisioni e/o compiere azioni specifiche.

La mente umana, specie quando si tratta di Deep Learning (per cui vi rimandiamo alla lettura del servizio “Cos’è il Machine Learning, come funziona e quali sono le sue applicazioni” per avere un quadro di maggior dettaglio), non è in grado di interpretare i passaggi compiuti da una intelligenza artificiale attraverso una rete neurale profonda e deve quindi “fidarsi” del risultato raggiunto da una AI senza capire e sapere come è giunta a tale conclusione.

In questo scenario, la blockchain sembra essere la risposta più rassicurante: l’uso della tecnologia blockchain consente registrazioni immutabili di tutti i dati, di tutte le variabili e  di tutti i processi utilizzati dalle intelligenze artificiali per arrivare alle loro conclusioni/decisioni. Ed è esattamente ciò che serve controllare in modo semplice l’intero processo decisionale dell’AI.

PER APPROFONDIMENTI SUGGERIAMO LA LETTURA DI:

 

FacebookTwitterLinkedIn

5 Comments

  1. Giovanni Atti Past President ADACI (Associazione Italiana Acquisti e Supply Management)

    Complimenti, grazie anche al suo articolo siamo in grado di segnalare alla procurement community cosa sia l’AI e cosa si debba fare in un prossimo futuro per realizzare applicazioni di BPA.
    Il suo linguaggio relativamente semplice, consente di far capire agevolmente i concetti espressi. Great!!!

88 Trackbacks / Pingbacks

  1. Risk Management: investire su dati e infrastrutture per trarne valore
  2. Risk Management, le soluzioni per assicurare la continuità operativa
  3. Trasformazione digitale data intensive: come cambia il ruolo del CIO
  4. I retailer italiani investono nel digitale più della media - Pagamenti Digitali
  5. Tre giorni di payment innovation al Salone dei Pagamenti 2018 - Pagamenti Digitali
  6. Big Data & Analytics in scena a Tech Companies Lab - Big Data 4Innovation
  7. Intelligenza artificiale, cosa e chi c’è dietro questo mercato - Big Data 4Innovation
  8. HIPay partecipa al Salone dei Pagamenti con un focus sulla AI - Pagamenti Digitali
  9. Record di brevetti per IBM: la gestione dei dati centrale per cloud e AI - Big Data 4Innovation
  10. Chi è l’augmented CFO e perché cloud, AI e Big Data sono fondamentali per il suo lavoro - Big Data 4Innovation
  11. Chi è l’augmented CFO e perché cloud, AI e Big Data sono fondamentali per il suo lavoro - Siti Web > Notizie di Marketing e comunicazione
  12. Argovision, la startup che usa l'intelligenza artificiale per lo Smart Parking - E-media, il Blog di Econocom
  13. proposte titoli - Pagamenti Digitali
  14. I pagamenti digitali innovativi raggiungono gli 80 miliardi di euro - Pagamenti Digitali
  15. Dal MIP arriva Flexa: l'intelligenza artificiale al servizio della formazione - Big Data 4Innovation
  16. Dati e intelligenza artificiale cambiano il mondo delle HR - Big Data 4Innovation
  17. Sempre più dati da gestire per le imprese italiane - Big Data 4Innovation
  18. Sempre più dati da gestire per le imprese italiane - Siti Web > Notizie di Marketing e comunicazione
  19. news internet4things.it - Industria 4.0, Agroalimentare, Servitizzazione, AI | automazioneblog
  20. Brad Smith, Microsoft: obiettivo sostenibilità, a che punto siamo - Agrifood.Tech
  21. La corsa dell'Internet of Things in Italia nel 201 | automazioneblog
  22. Intelligenza artificiale: cos’è e quali sono i campi applicativi? | psicotypo
  23. Otto tecnologie per la supply chain: dall'IoT agli analytics alla blockchain, ecco lo scenario secondo Gartner - Big Data 4Innovation
  24. Otto tecnologie per la supply chain: dall'IoT agli analytics alla blockchain, ecco lo scenario secondo Gartner - Siti Web > Notizie di Marketing e comunicazione
  25. Machine Learning e Knowledge discovery – BLOG DI STATISTICA APPLICATA
  26. Sicurezza alimentare: XNext controlla in tempo reale i prodotti con i raggi X - Agrifood.Tech
  27. L’integrazione dell’intelligenza artificiale nell’e-learning
  28. Gruppo Var: l'AI è il nuovo trend da seguire per le | automazioneblog
  29. Dynamic Pricing contro gli sprechi alimentari nei supermercati - Agrifood.Tech
  30. Sps 2019: Rittal ed Eplan insieme per un manufactu | automazioneblog
  31. Sps 2019: da Microsoft un libro sull'Intelligenza | automazioneblog
  32. Big Data sempre più importanti nel mondo delle assicurazioni - Big Data 4Innovation
  33. Al via la 3° edizione di AgroInnovation Award, per tesi di laurea e PhD in ambito agricolo - Agrifood.Tech
  34. Accenture, Faurecia e Affettivante insieme per l'auto | automazioneblog
  35. Con Cloud e AI, Microsoft partecipa alla rivoluzione digitale dei musei - Big Data 4Innovation
  36. Bologna tra gli 8 siti europei che ospiteranno centri di supercalcolo - Big Data 4Innovation
  37. Bologna tra gli 8 siti europei che ospiteranno centri di supercalcolo - Siti Web > Notizie di Marketing e comunicazione
  38. Con Cloud e AI, Microsoft partecipa alla rivoluzione digitale dei musei - Siti Web > Notizie di Marketing e comunicazione
  39. Ai Campionati di Wimbledon IBM porta in campo cloud e IA - Big Data 4Innovation
  40. Ai Campionati di Wimbledon IBM porta in campo cloud e IA - Siti Web > Notizie di Marketing e comunicazione
  41. Microsoft potenzia i corsi estivi online sul digitale e sull’IA - Big Data 4Innovation
  42. IBM: IoT, Cloud, AI e Blockchain al servizio della | automazioneblog
  43. Big Data, AI e IoT: finanziato il progetto di GFT | automazioneblog
  44. MISE, tramite il finanziamento dei progetti per le | automazioneblog
  45. Smart City: mondo industriale e accademico insieme | automazioneblog
  46. L'AI di Dynamics per e-commerce, negozi fisici e s | automazioneblog
  47. Intelligenza artificiale nell'Aeronautica: al via l'hackathon di Leonardo - Big Data 4Innovation
  48. Intelligenza artificiale nell'Aeronautica: al via l'hackathon di Leonardo - Siti Web > Notizie di Marketing e comunicazione
  49. PTC: la realtà aumentata può ridurre il gap di abilità | automazioneblog
  50. Con Consumer Goods Cloud, Salesforce migliora la retail execution - Big Data 4Innovation
  51. Con Consumer Goods Cloud, Salesforce migliora la retail execution - Siti Web > Notizie di Marketing e comunicazione
  52. Come il cinema ci parla dell'intelligenza artificiale
  53. Cos'è il Facility Management e cosa fa il Facility – automazioneblog
  54. Il Cloud nel food: Illy con Oracle per l'HR - Agrifood.Tech
  55. Arriva Code4Future, il festival dedicato a Open Innovation e Digital Transformation - Agrifood.Tech
  56. Fintech, Banking e Payment al digital live TALK del Dell Technology Forum 2019 - Pagamenti Digitali
  57. Allo Strategy Innovation Forum 2019 si parla di Bl – automazioneblog
  58. Internet delle cose industriale: i progetti migliori – automazioneblog
  59. Connected care, FPA premia le i migliori progetti – automazioneblog
  60. Conversational commerce e AI: nuove leve per il modern banking - Pagamenti Digitali
  61. Aperta la sfida per gli algoritmi predittivi per la smart agriculture - Agrifood.Tech
  62. Logistica 4.0: efficienza, tracciabilità e sicurez – automazioneblog
  63. Facility Management: da Supplean una piattaforma d – automazioneblog
  64. A Milano la quarta sede di Westpole – automazioneblog
  65. “Future Disrupted”: le previsioni di NTT Ltd per i – automazioneblog
  66. Le 10 startup IoT selezionate dallo IoT Solutions – automazioneblog
  67. Autostrade per l'Italia e IBM insieme per le infra – automazioneblog
  68. Microsoft e Borsa Italia promuovono l'innovazione della business continuity italiana - Big Data 4Innovation
  69. Microsoft e Borsa Italia promuovono l'innovazione della business continuity italiana - Siti Web > Notizie di Marketing e comunicazione
  70. Piacenza, Modena, Torino: verso le Smart City Platform con pagamenti digitali, IoT e blockchain - Pagamenti Digitali
  71. Come la Digital Transformation sta cambiando il mondo del banking - Pagamenti Digitali
  72. Aeronautica Militare: innovatori in gara con l’AIRtificial Intelligence pensando a cittadini, industria ed etica - Big Data 4Innovation
  73. Aeronautica Militare: innovatori in gara con l’AIRtificial Intelligence pensando a cittadini, industria ed etica - Siti Web > Notizie di Marketing e comunicazione
  74. Retelit ed Eurotech: un'ecosistema di piattaforme – automazioneblog
  75. Con JRC e Proptech Monitor focus Polimi sull’innovazione digitale per il Real Estate - Big Data 4Innovation
  76. Con JRC e Proptech Monitor focus Polimi sull’innovazione digitale per il Real Estate - Siti Web > Notizie di Marketing e comunicazione
  77. Grazie al cloud, più sicurezza e meno costi per le banche - Pagamenti Digitali
  78. Smart city: cosa sono, come gli esempi ed esempi i – automazioneblog
  79. Agrifood Startup Challenge, Corteva premia la sostenibilità - Agrifood.Tech
  80. Sensore ottico: cos'è, come funziona, tipologie e – automazioneblog
  81. Competenze, dati e fiducia: i 3 ostacoli all'adozione dell'AI nelle aziende - Big Data 4Innovation
  82. Competenze, dati e fiducia: i 3 ostacoli all'adozione dell'AI nelle aziende - Siti Web > Notizie di Marketing e comunicazione
  83. Formazione e digitale: IBM e CRUI sostengono le università italiane - Big Data 4Innovation
  84. Formazione e digitale: IBM e CRUI sostengono le università italiane - Siti Web > Notizie di Marketing e comunicazione
  85. Lo shopping digitale cresce: mobile e intelligenza artificiale, le chiavi del successo - Big Data 4Innovation
  86. CES 2020: Verse, l'intelligenza artificiale per chatbot personalizzati - Big Data 4Innovation
  87. Lo shopping digitale cresce: mobile e intelligenza artificiale, le chiavi del successo - Siti Web > Notizie di Marketing e comunicazione
  88. CES 2020: Verse, l'intelligenza artificiale per chatbot personalizzati - Siti Web > Notizie di Marketing e comunicazione

Lascia un commento