Intelligenza Artificiale e sicurezza: rischi od opportunità?

Intelligenza artificiale e sicurezza sono un binomio possibile o l’una minaccia l’altra? L’AI – Artificial Intelligence pone una serie di minacce alla sicurezza informatica, fisica e politica ma, al contempo, potrebbe essere il volano per aumentare la sicurezza delle aziende. E allora, è un rischio o un’opportunità?

Pubblicato il 05 Set 2018

Intelligenza Artificiale Sicurezza

Intelligenza artificiale e sicurezza sono un binomio possibile o l’una minaccia l’altra? L’AI – Artificial Intelligence pone una serie di minacce alla sicurezza informatica, fisica e politica ma, al contempo, potrebbe essere il volano per aumentare la sicurezza delle aziende. E allora, è un rischio o un’opportunità?

Intelligenza artificiale e sicurezza è un binomio che oggi merita di essere analizzato da più prospettive. Con l’aumentare della diffusione ma, soprattutto, delle potenzialità dell’AI – Artificial Intelligence e delle sue funzionalità, è plausibile attendersi anche un’espansione delle minacce? Per gli hacker sarà più facile ed economico effettuare attacchi informatici? Non solo, la diffusione di sistemi robotici rappresenta un rischio per giustizia, etica, sicurezza delle persone?

Sono quesiti a cui stanno cercando di rispondere sia la comunità scientifica internazionale sia le grandi aziende del mondo Tech sia, non da ultimo, le organizzazioni governative e le forze politiche internazionali, dato che i risvolti sono molto estesi e riguardano la privacy, il trattamento dei dati, la sicurezza dei sistemi, l’etica… Per le aziende, siamo di fronte a maggiori rischi o a più ampie opportunità? E il canale è preparato per dare risposte efficaci alle aziende utenti?

Secondo il Malicious Report,un rapporto che nasce da un progetto collaborativo tra il Future of Humanity Institute dell’Università di Oxford, il Centre for the Study of Existential Risk dell’Università di Cambridge, il Centro per la nuova sicurezza americana, la Electronic Frontier Foundation e OpenAI che ha coinvolto 26 esperti, analisti e ricercatori britannici e americani, l’aumento dell’utilizzo di soluzioni e servizi di intelligenza artificiale espone le aziende a maggiori rischi.

Secondo gli analisti che hanno lavorato al rapporto, il trade-off tra portata ed efficacia degli attacchi informatici potrebbe alleviarsi notevolmente proprio con l’utilizzo di sistemi di intelligenza artificiale che, di fatto, fanno da acceleratore di tutte le attività (sempre più automatizzate) necessarie a realizzare e perpetrare un attacco. Nei prossimi mesi, potremmo quindi vedere esplodere minacce “ad alta manovalanza” (che richiedono cioè tanta manodopera da parte degli hacker e che, tramite l’AI, verrebbe automatizzata) come il phishing.

Secondo gli esperti, in questo momento, l’utilizzo dell’intelligenza artificiale per scopi offensivi è ancora limitato e confinato all’alveo di esperimento da parte dei cosiddetti “white hat”, gli hacker “buoni”. Tuttavia, la forte accelerazione che stanno avendo i sistemi di AI a livello planetario potrebbe favorire l’inasprimento degli attacchi informatici, sia come numerosità e velocità delle minacce messe in circolazione sia per la loro maggiore sofisticazione.

Non solo, il machine learning, in questo contesto, potrebbe essere l’elemento di maggiore rischio perché consentirebbe alle minacce di evolversi in modo rapido e senza nemmeno l’intervento degli hacker, attraverso l’auto-apprendimento.

Il rapporto rilasciato dal collettivo di esperti contiene un importante monito a riguardo: “mentre gli strumenti basati su una combinazione di algoritmi euristici e di apprendimento automatico per fornire funzionalità di sicurezza sono piuttosto efficaci contro il tipico malware di origine umana, i sistemi di intelligenza artificiale possono essere in grado di imparare a sfuggire a questi sistemi, arrivando quindi a compiere e concludere l’attacco superando anche i controlli di sicurezza più sofisticati”.

Il rovescio, positivo della medaglia, è che, secondo gli analisti, l’evoluzione delle minacce abilitate dall’intelligenza artificiale andrà di pari passo con l’evoluzione dei sistemi di protezione che, proprio grazie all’intelligenza artificiale, riusciranno ad essere molto più dinamici e proattivi.

Intelligenza artificiale e sicurezza informatica, cosa preoccupa gli esperti

Secondo un’indagine dello scorso anno di Cylance, società di ricerca che ha coinvolto un campione selezionato di oltre 100 esperti di sicurezza aziendale negli USA, circa il 62% dei professionisti in ambito cybersecurity ritiene che l’intelligenza artificiale sarà utilizzata per attacchi informatici sempre più devastanti nei prossimi 12-18 mesi.

A preoccupare maggiormente gli esperti sono prevalentemente le procedure aziendali; patch e aggiornamenti dei sistemi sono stati indicati come fonte di preoccupazione da ben il 39% degli intervistati. A far “tremare le gambe”, naturalmente, anche i problemi di conformità (causa di criticità per il 24% del campione) e il propagarsi planetario di attacchi come ransomware (ne è preoccupato il 18% del campione) ed attacchi di denial of service (DoS) (per l’8% degli esperti di sicurezza) che, proprio attraverso l’utilizzo di sistemi di intelligenza artificiale da parte dei cybercriminali, potrebbero risultare ancora più massivi e sofisticati mettendo a dura prova e sotto stress i sistemi It aziendali.

Guardando a questi ultimi, dall’indagine emerge che i principali problemi di sicurezza che le organizzazioni hanno dovuto affrontare lo scorso anno riguardavano il phishing (36%), gli attacchi infrastrutturali critici (33%), gli attacchi IoT (15%), gli attacchi ransomware (14%) e gli attacchi botnet (1%).

Dalla preoccupazione all’utilizzo dell’AI per migliorare la cybersecurity

Quando si parla di intelligenza artificiale e sicurezza insieme, quindi, se da un lato, l’intelligenza artificiale rappresenta una fonte di preoccupazione, dall’altro, è proprio l’AI stessa a rendere più efficaci le strategie di sicurezza delle aziende.

E’ ancora una volta una ricerca internazionale a darne evidenza. Secondo quanto emerge da un recente studio di ESG – Enterprise Strategy Group, il 12% delle organizzazioni aziendali (la società di ricerca americana monitora aziende sia di grandi dimensioni sia realtà medio-piccole) ha già implementato estesi sistemi di analisi di sicurezza basati su intelligenza artificiale.

Secondo le analisi della corporation americana oggi a guidare l’adozione della tecnologia di cybersecurity basata su Ai sono driver e motivazioni quali:

1) il 29% desidera utilizzare la tecnologia di sicurezza informatica basata su AI per accelerare il rilevamento degli incidenti. In molti casi, per le aziende il ricorso all’intelligenza artificiale si traduce in un lavoro più accurato di rilevazione delle minacce, più efficace correlazione degli eventi e arricchimento di avvisi di sicurezza ad alto volume, il tutto a beneficio di processi di rilevamento degli incidenti più coesi ed integrati anche in presenza di “puzzle” di soluzioni;

2) il 27% desidera utilizzare la tecnologia di sicurezza informatica basata su AI per accelerare la risposta agli incidenti. Ciò significa migliorare le operation, dare le corrette priorità agli incidenti giusti (cioè gestire in modo corretto anche i falsi positivi) e persino automatizzare le attività di ripristino/intervento;

3) il 24% ritiene fondamentale introdurre l’intelligenza artificiale in sistemi di sicurezza informatica per riuscire ad identificare con più efficacia e comunicare meglio e tempestivamente i rischi per l’azienda. In questo caso, l’intelligenza artificiale viene utilizzata per ordinare montagne di vulnerabilità software, errori di configurazione e intelligence delle minacce per isolare situazioni ad alto rischio che richiedono attenzione immediata;

4) il 22% delle aziende che ESG monitora periodicamente desidera utilizzare la tecnologia di sicurezza informatica basata su intelligenza artificiale per avere migliore comprensione e maggiore consapevolezza sulla situazione aziendale (e globale) della sicurezza informatica. In altre parole, i CISO vogliono che l’intelligenza artificiale dia loro una visione unificata dello stato di sicurezza (nel mondo, e nella loro azienda).

Gli analisti di ESG ci tengono però a sottolineare che, rispetto ai desideri delle aziende, oggi le soluzioni di intelligenza artificiale non riescono ancora a dare risultati ottimali su questi fronti, anche se la potenza analitica che sono in grado di garantire diventa un fattore abilitante ed incrementale non banale rispetto alle tecnologie di sicurezza già esistenti, guidando verso livelli sempre maggiori di efficacia ed efficienza, con conseguente valore di business tangibile per le aziende.

Intelligenza artificiale e sicurezza: la visione del “padre” di Internet, Sir Tim Berners-Lee

Tim-Berners-Lee

Intelligenza artificiale e robot sono già una realtà molto diffusa e potrebbero diventare pericolosi se ne perdessimo il controllo. Questa per lo meno la visione del padre fondatore di Internet, Sir Tim Berners-Lee che in diverse occasioni pubbliche ha descritto un’epoca, quella attuale, in cui i computer non sono più programmati e codificati dall’uomo ma auto-apprendono ed imparano a migliorare sé stessi autonomamente, anche riscrivendo il codice, se necessario, per risolvere i problemi.

«Le auto a guida autonoma, le fabbriche automatizzate, i trattori intelligenti sono tutti esempi di ‘robotizzazione’ del lavoro che sull’economia avrà indubbiamente effetti positivi ma non altrettanto sull’occupazione delle persone», è la visione di Berners-Lee che tuttavia lascia spesso spazio anche per le considerazioni etico-sociali ed economiche: «dovremo riconsiderare il concetto di salario e capire come modellare un sistema incentrato su una sorta di stipendio universale, stabilire nuove modalità di occupazione (non necessariamente lavorativa) delle persone e, soprattutto, capire le nuove regole sociali: come faremo a rispettare gli esseri umani che non lavoreranno?». Non solo, nella visione espressa da Berner-Lee la questione etica arriva a toccare anche il ruolo stesso delle macchine: «ci sono modelli matematici che dimostrano che anche gli algoritmi sbagliano o emettono risultati ‘ingiusti’ quando si basano su dati generati dall’uomo (pensiamo alla miriade di dati non strutturati che generiamo come utenti sui social e al differente ‘livello di qualità’ dei contenuti che creiamo e condividiamo). Come si può definire se un risultato sia giusto o ingiusto? Come può apprenderlo una macchina?», sono le domande di fondo.

L’obiettivo di Berner-Lee non è creare allarmismo, lo ripete più volte nei sui interventi pubblici ma si intuisce che vorrebbe si prendesse a livello globale una maggior coscienza su tematiche tutt’altro che banali e dei cui risvolti dovremmo iniziare a preoccuparci già oggi: «molti ritengono che finché su robot e intelligenza artificiale ci sarà il controllo umano non ci saranno criticità, ma come possiamo essere certi che le imprese che avranno in mano la conoscenza di questi sistemi tecnologici o le compagnie che la utilizzeranno sapranno e vorranno fare ‘la cosa giusta’?», è la riflessione che ripete ormai da qualche anno.

Intelligenza Artificiale decentralizzata: perché potrebbe essere la risposta ai problemi di sicurezza

La comunità scientifica internazionale sta lavorando da tempo alla cosiddetta superintelligenza, una intelligenza artificiale generale [la ricerca in questo campo ha come obiettivo la creazione di una AI – Artificial Intelligence capace di replicare completamente l’intelligenza umana; fa riferimento alla branca della ricerca dell’intelligenza artificiale forte secondo la quale è possibile per le macchine diventare sapienti o coscienti di sé, senza necessariamente mostrare processi di pensiero simili a quelli umani – ndr]. Tuttavia i rischi sono elevatissimi, soprattutto se a portare avanti la ricerca sono poche aziende in grado di dedicare ingenti risorse (economiche e di competenze) ai progetti più innovativi.

Decentralizzare l’intelligenza artificiale e fare in modo che possa essere progettata, sviluppata e controllata da una grande rete internazionale attraverso la programmazione open source è per molti ricercatori e scienziati l’approccio più sicuro per creare non solo la superintelligenza ma democratizzare l’accesso alle intelligenze artificiali, riducendo i rischi di monopolio e quindi risolvendo problemi etici e di sicurezza.

Oggi, una delle preoccupazioni maggiori in tema di intelligenza artificiale riguarda proprio l’utilizzo dei dati e la fiducia con la quale le AI sfruttano dati ed informazioni per giungere a determinate decisioni e/o compiere azioni specifiche. La mente umana, specie quando si tratta di Deep Learning, non è in grado di interpretare i passaggi compiuti da una intelligenza artificiale attraverso una rete neurale profonda e deve quindi “fidarsi” del risultato raggiunto da una AI senza capire e sapere come è giunta a tale conclusione.

Man mano che gli algoritmi di intelligenza artificiale diventano più intelligenti attraverso l’auto apprendimento (Machine Learning e Deep Learning), per i Data Scientist diventerà sempre più difficile comprendere come i programmi di AI siano giunti a conclusioni o abbiano preso decisioni specifiche. Questo perché gli algoritmi di intelligenza artificiale saranno in grado di elaborare quantità incredibilmente elevate di dati e variabili, una potenzialità irraggiungibile dall’uomo. Il rischio è quindi di “perdere il controllo” dell’intelligenza artificiale, non capendo più come apprende e come si comporta.

In questo scenario, la blockchain sembra essere la risposta più rassicurante: l’uso della tecnologia blockchain consente registrazioni immutabili di tutti i dati, di tutte le variabili e  di tutti i processi utilizzati dalle intelligenze artificiali per arrivare alle loro conclusioni/decisioni. Ed è esattamente ciò che serve controllare in modo semplice l’intero processo decisionale dell’AI.

Grazie alla sua natura distribuita, la tecnologia blockchain decentralizza il potere sui dati ed il rischio di monopoli perché tutti gli utenti connessi alla rete condividono le stesse informazioni, senza un’autorità centrale o un organo centralizzato che le controllano (come avviene invece nella vita/società “fisica” così come l’abbiamo costruita e vissuta fino ad oggi). Il controllo avviene attraverso un meccanismo di fiducia alimentato dalla rete stessa: i membri/partecipanti alla rete sono utenti attivi che immettono nella rete dati e transazioni sulle quali non può esserci il controllo da parte di un unico utente; tutti i dati, le transazioni, le informazioni, sono distribuire nella “catena di blocchi”. L’informazione, la sua validazione, la sua fruibilità sono distribuite, quindi, più sicure.

TUTTI GLI APPROFONDIMENTI SUL TEMA DELL’INTELLIGENZA ARTIFICIALE DECENTRALIZZATA NELL’ARTICOLO “INTELLIGENZA ARTIFICIALE DECENTRALIZZATA: C’È LA BLOCKCHAIN NEL FUTURO DELL’AI”

***

MAI, i Martedì dell’AI – Al via MAI SECURITY

AI4BUSINESS E IL NETWORK DIGITAL360 LANCIANO MAI – I MARTEDÌ DELL’ARTIFICIAL INTELLIGENCE. UNA SERIE DI WEB TALK & SHOW PER TOCCARE CON MANO TUTTE LE POTENZIALITÀ (ATTUALI E FUTURE) DELL’INTELLIGENZA ARTIFICIALE APPLICATA AL MONDO DEL BUSINESS

Primo appuntamento l’11 settembre con MAI Security

Affronteremo il dibattito in un format nuovo e unico con l’aiuto di esperti ed analisti.

Nel primo appuntamento di MAI, in studio con noi ci sarà l’Avv. Massimiliano Nicotra, esperto di diritto delle tecnologie. Insieme a lui cercheremo di capire, dalla prospettiva di sicurezza e privacy, quali sono i risvolti dell’intelligenza artificiale in ambiti come la privacy, il trattamento dei dati, la sicurezza dei sistemi, l’etica…

  • Per le aziende, siamo di fronte a maggiori rischi o a più ampie opportunità?
  • Con l’aumentare della diffusione ma, soprattutto, delle potenzialità dell’AI e delle sue funzionalità, è plausibile attendersi anche un’espansione delle minacce?
  • Per gli hacker sarà più facile ed economico effettuare attacchi informatici?
  • La diffusione di sistemi robotici rappresenta un rischio per giustizia, etica, sicurezza delle persone?

PER INFORMAZIONI ED ISCRIZIONI CLICCA QUI

#MAISecurity - Il primo appuntamento di MAI, i Martedì dell'AI - Artificial Intelligence

#MAISecurity - Il primo appuntamento di MAI, i Martedì dell'AI - Artificial Intelligence

Guarda questo video su YouTube

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2