NEWS

Conferenza sulla Sicurezza di Monaco: Google, Microsoft e OpenAI, impegno condiviso per l’AI



Indirizzo copiato

Le tre aziende annunciano iniziative congiunte per migliorare la sicurezza attraverso l’AI. Il lancio dell’AI Cyber Defense Initiative di Google e il recente impegno di Microsoft e OpenAI per l’uso responsabile pongono l’accento sulla crescente importanza nella cyber sicurezza

Pubblicato il 19 feb 2024



Cybersec_1

Google, Microsoft e OpenAI si impegnano nel settore dell’intelligenza artificiale in occasione della Conferenza sulla Sicurezza di Monaco tenutasi il 16 febbraio. Nel cosiddetto “dilemma del difensore” della cybersecurity, i buoni sono sempre all’erta, mentre gli aggressori, al contrario, hanno bisogno solo di una piccola opportunità per sfondare e causare danni. Google sostiene che i difensori dovrebbero adottare strumenti avanzati di AI per interrompere questo ciclo. A sostegno di ciò, il colosso tecnologico ha lanciato l’AI Cyber Defense Initiative e ha preso diversi impegni legati all’AI in occasione della Conferenza sulla Sicurezza di Monaco.

Microsoft e OpenAI s’impegnano per l’uso dell’AI sicuro e responsabile

L’annuncio arriva un giorno dopo che Microsoft e OpenAI hanno pubblicato ricerche sull’uso avversario di ChatGPT e hanno preso impegni per supportare l’uso dell’AI “sicuro e responsabile”.

Google investe in infrastrutture ‘pronte per l’AI’, nuovi strumenti e ricerca

A Monaco, più di 450 decision maker senior e leader di pensiero e business si sono riuniti per discutere di temi tra i quali tecnologia, sicurezza transatlantica e ordine globale. “La tecnologia permea sempre più ogni aspetto di come gli stati, le società e gli individui perseguono i loro interessi”, si legge sul sito web della Conferenza per la Sicurezza, aggiungendo che la conferenza mira a far avanzare il dibattito sulla regolamentazione della tecnologia, sulla governance e sull’uso “per promuovere una sicurezza inclusiva e una cooperazione globale”.

Google annuncia “AI for Cybersecurity”

L’AI è indubbiamente in cima alla lista delle preoccupazioni di molti leader globali e regolatori mentre cercano non solo di capire la tecnologia ma anche di anticiparne l’uso da parte degli attori malevoli. Google si impegna a investire in infrastrutture “pronte per l’AI”, a rilasciare nuovi strumenti per i difensori e a lanciare nuove ricerche e formazioni sulla sicurezza dell’AI. L’azienda ha annunciato la nuova coalizione “AI for Cybersecurity” di 17 startup provenienti dagli Stati Uniti, dal Regno Unito e dall’Unione Europea nell’ambito del programma AI for Cybersecurity della Google for Startups Growth Academy.

“Questo aiuterà a rafforzare l’ecosistema di cybersecurity transatlantico con strategie di internazionalizzazione, strumenti AI e le competenze per utilizzarli”, afferma l’azienda. Google inoltre:

• estenderà il suo programma di seminari sulla cybersecurity da 15 milioni di dollari di Google.org per coprire tutta l’Europa e aiutare a formare professionisti della cybersecurity nelle comunità mal servite;

• rilascerà in open source Magika, un nuovo strumento alimentato dall’AI volto ad aiutare i difensori attraverso l’identificazione del tipo di file, che è essenziale per rilevare il malware. Google afferma che la piattaforma supera i metodi convenzionali di identificazione dei file, fornendo un aumento dell’accuratezza del 30% e una precisione fino al 95% superiore su contenuti come VBA, JavaScript e Powershell che sono spesso difficili da identificare;

• fornirà 2 milioni di dollari in sovvenzioni per la ricerca per sostenere le iniziative di ricerca basate sull’AI presso l’Università di Chicago, la Carnegie Mellon University e la Stanford University, tra gli altri. L’obiettivo è migliorare la verifica del codice, approfondire la comprensione del ruolo dell’AI nell’offesa e nella difesa cybernetica e sviluppare modelli linguistici grandi (LLM) più resistenti alle minacce.

Inoltre, Google fa riferimento al suo Secure AI Framework – lanciato lo scorso giugno – per aiutare le organizzazioni di tutto il mondo a collaborare sulle migliori pratiche per garantire l’AI.

“Crediamo che le tecnologie di sicurezza dell’AI, come tutte le altre tecnologie, debbano essere sicure per progettazione e per impostazione predefinita”, scrive l’azienda.

In definitiva, Google sottolinea che il mondo ha bisogno di investimenti mirati, partnership tra industria e governo e “approcci normativi efficaci” per aiutare a massimizzare il valore dell’AI limitandone l’uso da parte degli aggressori. “Le scelte di governance dell’AI fatte oggi possono spostare il terreno nel cyberspazio in modi imprevisti”, scrive l’azienda. “Le nostre società hanno bisogno di un approccio normativo equilibrato all’uso e all’adozione dell’AI per evitare un futuro in cui gli aggressori possono innovare ma i difensori non possono”.

AI cybersecurity

Microsoft, OpenAI combattono l’uso malevolo dell’AI

Nel loro annuncio congiunto, Microsoft e OpenAI fanno notare che gli aggressori stanno sempre più vedendo l’AI come “un altro strumento di produttività”. In particolare, OpenAI ha dichiarato di aver chiuso i conti associati a cinque attori minacciosi affiliati a stati provenienti da Cina, Iran, Corea del Nord e Russia.

Questi gruppi hanno utilizzato ChatGPT per:

debuggare il codice e generare script;

• creare contenuti probabilmente destinati a essere utilizzati in campagne di phishing;

• tradurre documenti tecnici;

• ricercare informazioni pubblicamente disponibili su vulnerabilità e molteplici agenzie di intelligence;

• ricercare modi comuni in cui il malware potrebbe evitare il rilevamento;

• effettuare ricerche open source sui protocolli di comunicazione satellitare e sulla tecnologia di imaging radar.

L’azienda è stata rapida nel sottolineare, tuttavia, come “le nostre scoperte mostrano che i nostri modelli offrono solo capacità limitate, incrementali per compiti malevoli di cybersecurity”. Le due aziende si sono impegnate a garantire l’uso “sicuro e responsabile” delle tecnologie, tra cui ChatGPT.

Per Microsoft, questi principi includono:

• identificazione e azione contro l’uso da parte di attori minacciosi, come la disabilitazione degli account o la terminazione dei servizi;

• notifica ad altri fornitori di servizi AI e condivisione dei dati pertinenti;

• collaborazione con altri stakeholder sull’uso dell’AI da parte degli attori minacciosi;

• informazione al pubblico sull’uso rilevato dell’AI nei loro sistemi e sulle misure prese contro di esso.

Allo stesso modo, OpenAI si impegna a:

• monitorare e interrompere gli attori malevoli affiliati allo stato. Questo include determinare come gli attori malevoli interagiscono con la loro piattaforma e valutare le intenzioni più ampie;

• lavorare e collaborare con l'”ecosistema AI” ;

• fornire trasparenza pubblica sulla natura e l’entità dell’uso dell’AI da parte degli attori malevoli affiliati allo stato e sulle misure prese contro di essi.

Sia gli attori criminali che quelli sponsorizzati dagli stati intensificano gli attacchi

Il team di intelligence sulle minacce di Google ha dichiarato in un dettagliato rapporto che tiene traccia di migliaia di attori malevoli e famiglie di malware, e ha scoperto che:

• gli aggressori stanno continuando a professionalizzare le operazioni e i programmi;

• la capacità cyber offensiva è ora una priorità geopolitica;

• le tattiche dei gruppi di attori minacciosi ora eludono regolarmente i controlli standard, • sviluppi senza precedenti come l’invasione russa dell’Ucraina segnano la prima volta in cui le operazioni cyber hanno avuto un ruolo prominente nella guerra.

I ricercatori “valutano con alta fiducia” che i “Big Four”, Cina, Russia, Corea del Nord e Iran, continueranno a rappresentare rischi significativi in tutte le geografie e settori. Ad esempio, la Cina sta investendo pesantemente in AI offensiva e difensiva ed è impegnata nel furto di dati personali e IP per competere con gli Stati Uniti.

Google nota che gli aggressori stanno utilizzando notevolmente l’AI per l’ingegneria sociale e le operazioni di informazione sviluppando strumenti di phishing, SMS e altri esche sempre più sofisticati, fake news e deepfake.

“Man mano che la tecnologia AI si evolve, crediamo che abbia il potenziale per aumentare significativamente le operazioni malevole”, scrivono i ricercatori.

“Il governo e l’industria devono scalare per affrontare queste minacce con programmi di intelligence sulle minacce forti e una collaborazione robusta”.

Ribaltare il ‘dilemma del difensore’

D’altra parte, l’AI supporta il lavoro dei difensori nel rilevamento e nella correzione delle vulnerabilità, nella risposta agli incidenti e nell’analisi del malware, sottolinea Google. Ad esempio, l’AI può riassumere rapidamente le intelligence sulle minacce e i rapporti, riassumere le indagini sui casi e spiegare i comportamenti sospetti degli script. Allo stesso modo, può classificare le categorie di malware e dare priorità alle minacce, identificare le vulnerabilità di sicurezza nel codice, eseguire simulazioni di percorsi di attacco, monitorare le prestazioni dei controlli e valutare il rischio di guasto precoce.

Inoltre, afferma Google, l’AI può aiutare gli utenti non tecnici a generare query dal linguaggio naturale; sviluppare playbook per l’orchestrazione della sicurezza, l’automazione e la risposta; e creare regole e politiche per la gestione dell’identità e dell’accesso (IAM). Ad esempio, i team di rilevamento e risposta di Google stanno utilizzando l’AI generale per creare riassunti degli incidenti, recuperando così più del 50% del loro tempo e ottenendo risultati di analisi degli incidenti di qualità superiore. L’azienda ha anche migliorato i suoi tassi di rilevamento dello spam di circa il 40% con il nuovo modello multilingue basato su neuro-testo RETVec. E il suo Gemini LLM sta correggendo il 15% dei bug scoperti dagli strumenti sanitizer e fornendo aumenti della copertura del codice fino al 30% in oltre 120 progetti, portando a nuove rilevazioni di vulnerabilità.

Alla fine, affermano i ricercatori di Google, “crediamo che l’AI offra la migliore opportunità per ribaltare il dilemma del difensore e inclinare le bilance del cyberspazio per dare ai difensori un vantaggio decisivo sugli aggressori”.

Articoli correlati

Articolo 1 di 4