AI, due lati della stessa medaglia: dai deep fake all’impiego nella diagnostica

I progressi dell’intelligenza artificiale stanno portando, da un lato, a innovazioni mai sperimentate prima, dall’altro alla percezione di rischi sui quali forse non si è ancora riflettuto abbastanza

Pubblicato il 14 Apr 2021

Autenticazione biometrica - Identity protection

La robotica e l’automazione in generale stanno ridefinendo i nuovi confini del business industriale, in quanto sta cambiando radicalmente la concezione del modo di lavorare. Il collante fondamentale delle nuovissime supply chain, come quella di Amazon, è l’intelligenza artificiale (AI), che si pone l’obiettivo di implementare e rendere sempre più efficienti i processi di funzionamento.

L’AI si sta inserendo in modalità disruptive nel tessuto tecnologico degli ultimi anni, facendo capolino in più ambiti che vanno dal settore dell’automotive, all’ambito biomedicale o a quello finanziario. Con lo sviluppo di veicoli a guida autonoma serve un AI che sappia valutare e prendere decisioni in modo trasversalmente più complesso rispetto anche a un sofisticato software, che si implementava sulla base di algoritmi con logica booleana. Anche in ambito sicurezza si ricorre all’AI per tracciare nuove modalità di applicazione, come ad esempio i sistemi antiintrusione o antiincendio, supportati e governati da software di nuova generazione, che vedono e rilevano tramite i sensori, pensano e valutano tramite algoritmi di machine learning e quindi agiscono autonomamente in base ai meccanismi di autoapprendimento dello stesso software.

Negli USA il National Defense Authorization Act ha istituito uffici, comitati, centri di ricerca e ha stanziato una cifra che supera i 4 miliardi di dollari, tutto ciò a dimostrare che l’Amministrazione USA ripone una grande fiducia nei promettenti risvolti, che potranno derivare dallo sviluppo di sistemi tecnologici, che utilizzano l’AI.

AI e sistemi di riconoscimento facciale: i rischi per la privacy

Una delle principali tecnologie, che utilizza l’AI, è il riconoscimento facciale, rispetto al cui utilizzo molti esperti sono scettici, perché ritengono che possa accrescere le discriminazioni sociali relative alle etnie razziali, ma non solo. In tale contesto i colossi dell’informatica, IBM e Amazon, hanno sospeso l’offerta di tale tecnologia ai clienti governativi.

AI

Già nel 2017 si diceva che l’algoritmo esistesse da tempo e il sistema era già utilizzato, in alcuni paesi, dalle forze dell’ordine per scovare malviventi e fuggitivi. Dopo la lettura della retina e quella delle impronte digitali, il riconoscimento facciale è la nuova frontiera dell’innovazione tecnologica. Ora il vero problema è come utilizzare tale tecnologia disruptive senza ledere i diritti della privacy dei singoli cittadini, che potrebbero venire profilati anche per scopi di marketing con associazioni puntuali sulla loro identità, in quanto si avrebbero informazioni sul sesso, l’età, il passaggio fisico in determinato luogo, quindi si dovrebbe in ogni momento rispettare la dignità e la riservatezza di chi viene incapsulato nello streaming video. La nostra immagine in rete fa parte di quei dati digitali, che sono beni troppo preziosi che non siamo ancora in grado di capire e gestire. È quindi giusto che l’organo costituente se ne occupi, fornendo degli standard di utilizzo tramite le normative del GDPR.

Dati biometrici e privacy

La normativa GDPR mette i paletti ai dati personali, ma la sua proiezione fisiologica è proprio verso i dati biometrici, in quanto potremmo in futuro essere clonati come immagine virtuale in una info-sfera; quando si arriverà a tali risultati tecnologici, non ci sarà più modo di tornare indietro.

Non solo in Europa si parla di GDPR e privacy dei dati personali, anche in America per una class action intentata nell’Illinois, Facebook ha dovuto modificare il sistema di riconoscimento facciale usato per taggare gli amici: ora serve il consenso esplicito di chi viene taggato. Facebook, infatti, ha perso il ricorso in appello contro la causa collettiva intentata dagli utenti dell’Illinois nel 2015 che denunciavano come illegale (in base al Biometric Information Privacy Act) la raccolta dei dati biometrici sul social media.

La stessa Amazon è finita nel mirino degli attivisti civili statunitensi per aver fornito alla polizia americana le telecamere di sicurezza wireless che collegano le abitazioni private con le centrali delle forze dell’ordine: secondo i paladini della privacy, questo scambio di dati, che pure tutela i cittadini in caso di reati, apre la strada a pesanti intrusioni e abusi da parte del governo, dovute alle falle negli attuali sistemi di riconoscimento facciale.

Non è lontano il giorno in cui tale tecnologia di riconoscimento facciale sarà inserita in un robot, che così potrà riconoscere e individuare univocamente le persone.

AI e generazione di immagini virtuali: il rischio deep fake

Il confine di demarcazione tra la sfera reale e la sfera virtuale diventa ogni giorno più sottile, così ad esempio nel mondo dei social tramite l’intelligenza artificiale vengono creati degli “influencer virtuali” oppure dei “testimonial” di brand di famose case di moda, realizzando dei cosiddetti progetti di arte digitale. Al momento sembra che non ci sia alcun software in grado di generare più immagini della stessa persona colta da prospettive diverse, per cui la presenza di più immagini può rassicurare sulla genuinità del volto. Questo aspetto è uno dei punti deboli dei volti generati dall’intelligenza artificiale. Esistono algoritmi, come StyleGAN, che solleva molti dubbi. Da un lato le applicazioni pratiche di tale tecnologia potrebbero essere di grande utilità, per chi ha necessità di incrementare velocemente il materiale promozionale, compilare prototipi o illustrare concetti che potrebbero essere delicati per un modello umano, come situazioni imbarazzanti e procedimenti penali, si aggiunge una sicura utilità per le industrie creative e dell’intrattenimento, ad esempio nella creazione di contenuti per videogiochi e realtà virtuale.

Come tutte le tecnologie dipende dall’utilizzo che si pensa di farne, per cui anche i volti statici generati dall’AI possono diventare uno strumento potentissimo di disinformazione (deep fake). La capacità di manipolare e generare immagini realistiche trasformerà completamente la concezione che abbiamo del mondo, creando mondi virtuali ma realistici, in cui le immagini sono sintetizzate dall’AI, le ricadute socio-politiche di tali tecnologie saranno decisamente “disruptive”.

Le reti neurali di tipo GAN (Generative Adversarial Network) generano nuove immagini del volto ogni volta che le pagine web vengono aggiornate, ossia le reti generative auto-imparano a generare i volti imitando l’aspetto di foto reali, il risultato è impressionante per la grande somiglianza ai volti reali. All’interno delle reti neurali possono operare più intelligenze artificiali separate, ossia trasversalmente vengono compiute più operazioni in parallelo, utilizzando più dataset di immagini di volti umani, che contengono migliaia di file .png, che per poter essere elaborati devono riferirsi a immagini autorizzate per la libera divulgazione.

La tecnica GAN già era utilizzata nei videogiochi per la virtualizzazione dei personaggi. Si possono riconoscere le foto reali dalle foto false, in quanto l’algoritmo StyleGAN lascia un certo numero di difetti, in ogni immagine creata, ad esempio le cosiddette “water-slotches”, le gocce d’acqua che appaiono nell’intersezione tra i capelli e lo sfondo della foto, inoltre l’algoritmo non definisce l’immagine ai lati del volto, per cui si creano delle forme non realistiche di sfondo. Lo stesso accade con gli occhiali, che possono risultare ad esempio non completamente simmetrici, ciò è il filo di Arianna per poter riconoscere il volto mistificato. Molto presto sarà assolutamente impossibile distinguere un’immagine falsa da una reale, per cui citando le parole di Hani Farid, uno dei maggiori esperti mondiali di falsificazioni: “Se non possiamo credere ai video, alle immagini e alle informazioni che vengono raccolte da tutto il mondo, questo è un grave rischio per la sicurezza personale e nazionale”.

AI

AI e sanità: diagnosi più accurate

Un altro ambito in cui l’AI sta entrando prepotentemente è quello sanitario, dove le applicazioni sull’elaborazione e la scansione delle immagini sono molto utili nella diagnostica dei tumori o di altre patologie, in modo molto più rapido e accurato, con notevoli vantaggi in termini di prevenzione e riduzione dei costi di trattamento, grazie ad una maggiore accuratezza di approccio terapeutico. Secondo recenti studi, l’ultimo dei quali effettuato dai ricercatori del Massachusetts General Hospital (MGH), è possibile, grazie all’intelligenza artificiale, prevedere il rischio che una donna nel suo futuro possa sviluppare un tumore al seno. “Perché dovremmo limitarci alla sola densità del seno quando nella mammografia di ogni donna sono incorporati dati digitali così ricchi?” afferma Constance D. Lehman, MD, Ph.D., ricercatrice presso il MGH. “La mammografia di ogni donna è unica per lei, proprio come la sua impronta digitale. Contiene biomarcatori che sono altamente predittivi del rischio futuro di cancro, ma fino a quando non abbiamo avuto gli strumenti di deep learning, non siamo stati in grado di estrarre queste informazioni per migliorare la cura del paziente”.

I ricercatori, al fine di valutare l’accuratezza del modello predittivo creato con l’intelligenza artificiale, hanno confrontato i risultati ottenuti con un modello di rischio tradizionale; è emerso che il modello di deep learning ha raggiunto un tasso predittivo di 0,71 mentre il modello tradizionale era di 0,61. La peculiarità dell’algoritmo è quella di leggere e analizzare tutti i biomarcatori e i dati presenti nella mammografia. Il nuovo modello di “apprendimento profondo” è stato anche convalidato esternamente in Svezia e a Taiwan.

L’uso dell’AI in ambito sanitario come supporto alla diagnosi e cura delle patologie è in forte crescita e suscita l’interesse di numerosi giganti della tecnologia che finanziano studi e ricerche. Assisteremo a nuove scoperte, nuovi approfondimenti, nuovi test, indubbiamente ci saranno confutazioni di teorie, ricerche e metodi. Si preannuncia una nuova era dove, con l’aiuto e il supporto dell’intelligenza artificiale, i medici potranno ottenere risultati migliori ed efficaci per ogni singolo paziente. Quindi il chirurgo specialista, in ambito ad esempio oncologico, sarà supportato dal suo collaboratore robot in grado di analizzare il paziente con una diagnostica per immagini di altissima precisione e quindi con l’AI effettuare anche analisi predittive specifiche.

Note e Ref.:

  1. Rob Toews (2020). Deepfakes Are Going To Wreak Havoc On Society. We Are Not Prepared. Forbes, available at https://www.forbes.com/sites/robtoews/2020/05/25/deepfakes-are-going-to-wreak-havoc-on-society-we-are-not-prepared/?sh=2f5a34aa7494
  2. https://www.agendadigitale.eu/cultura-digitale/il-covid-ci-fara-amare-lintelligenza-artificiale-ecco-le-prospettive/
  3. https://www.ilsole24ore.com/art/sciami-robot-e-5g-sfida-innovazione-l-esercito-AD8uK5GB?refresh_ce=1
  4. https://www.ai4business.it/intelligenza-artificiale/lai-spiegata-agli-umani-le-novita-per-lai-civile-nella-legge-finanziaria-della-difesa-usa/
  5. https://trentinostartup.eu/il-covid-19-si-batte-anche-con-lautomazione-il-caso-della-trentina-rk-macchine-2fafc68af64c
  6. http://www.businesspeople.it/Lavoro/Manpower-automazione-aumenta-posti-lavoro-108731
  7. http://www.meccanica-automazione.com/intelligenza-artificiale-e-robotica-un-binomio-da-temere-o-innovazione-pura/
  8. A. Nair (2019). Is The GAN-Powered Website ThisPersonDoesNotExist.Com Creepy Or Brilliant? Available at https://analyticsindiamag.com/is-the-gan-powered-website-thispersondoesnotexist-com-creepy-or-brilliant/
  9. J. Vincent (2019). ThisPersonDoesNotExist.com uses AI to generate endless fake faces, available at https://www.theverge.com/tldr/2019/2/15/18226005/ai-generated-fake-people-portraits-thispersondoesnotexist-stylegan
  10. S. Venkataramakrishnan (2020). After deepfakes, a new frontier of AI trickery: fake faces. Financial Times, available at https://www.ft.com/content/b50d22ec-db98-4891-86da-af34f06d1cb1
  11. https://www.digital4.biz/executive/innovation-management/riconoscimento-facciale-privacy/

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2