cybersecurity

L’AI generativa apre una nuova era per la sicurezza informatica



Indirizzo copiato

L’intelligenza artificiale generativa rappresenta un nuovo livello di sofisticazione negli attacchi informatici e nelle relative difese. Un recente caso di frode ha evidenziato come anche i criminali meno esperti possano sfruttare questa tecnologia

Pubblicato il 8 feb 2024



cybersecurity

L’Intelligenza artificiale generativa rappresenta la nuova frontiera della sicurezza informatica, portando con sé un livello di sofisticazione mai visto prima negli attacchi informatici e nelle relative difese, grazie all’utilizzo di modelli linguistici di grandi dimensioni.

Un recente caso di frode informatica

Un recente episodio ha coinvolto un impiegato dell’ufficio di Hong Kong di una multinazionale, il quale ha ricevuto un messaggio dal CFO che lo invitava a una videochiamata per discutere una transazione riservata. Inizialmente sospettoso, l’impiegato ha tuttavia abbassato la guardia quando ha visto altri colleghi del dipartimento finanziario, incluso il CFO, partecipare alla riunione virtuale. Gli è stato chiesto di trasferire un totale di 200 milioni di dollari di Hong Kong (25,6 milioni di dollari) a cinque conti bancari. Purtroppo si trattava di una truffa: tutti i partecipanti alla riunione erano deepfake, come riferito dalla polizia locale.

“L’autore della frode ha scaricato video in anticipo e poi utilizzato l’intelligenza artificiale per aggiungere voci false da utilizzare nella videoconferenza”, ha dichiarato Baron Chan, sovrintendente senior ad interim della polizia locale. L’AI generativa sta portando gli attacchi informatici a un nuovo livello di sofisticazione e portata, consentendo anche a criminali meno esperti e con risorse limitate di commettere tali reati.

AI generativa e sicurezza: rischi e potenzialità degli LLM

Dichiara Phil Venables, CISO (Chief Information Security Officer) di Google Cloud: “Ci aspettiamo che l’AI generativa e i modelli linguistici di grandi dimensioni (LLM) vengano sfruttati dagli hacker per personalizzare e ampliare gradualmente le loro campagne. Le nuove capacità dell’IA consentiranno a soggetti minacciosi, una volta limitati da risorse e capacità ridotte, di estendere ulteriormente le loro campagne”.

Gli LLM offrono vari modi per gli hacker di portare avanti i loro piani malevoli. Uno è attraverso una tradizionale campagna di phishing. “I giorni in cui si ignoravano le richieste del principe nigeriano in cerca di un partner bancario sono finiti”, ha detto Christopher Cain, responsabile della ricerca sulle minacce presso OpenText Cybersecurity.

“Un LLM può aiutare a correggere il linguaggio o rimuovere errori evidenti che un non madrelingua farebbe. La tecnologia può anche essere utilizzata per rendere il contenuto dei messaggi unico e più personalizzato su questioni rilevanti”.

Un altro uso degli LLM è la creazione del codice per l’attacco. Questo potrebbe permettere di creare una pagina web realistica senza dover conoscere un linguaggio di programmazione o scripting. Ad esempio, un hacker può fare uno screenshot del sito web di una banca e l’LLM creerà il codice per esso. Questo significa che sarà necessario adottare nuovi approcci per affrontare gli attacchi di ingegneria sociale. “L’educazione e la consapevolezza sulla sicurezza informatica sono ora più importanti che mai”, ha detto Cain. “Le corrette pratiche e procedure di sicurezza, insieme a controlli e salvaguardie, fanno parte della soluzione al problema. Internamente, si tratta di effettuare una telefonata per confermare che eventuali email che richiedono un login o dati finanziari siano effettivamente richieste legittime”.

AI generativa e sicurezza: gli LLM sono anche obiettivi degli hacker

È importante considerare anche che gli stessi LLM stanno diventando obiettivi per gli hacker. “Una delle maggiori preoccupazioni con gli LLM, soprattutto quelli pubblicamente disponibili e open source, è la protezione contro vulnerabilità e attacchi di iniezione di prompt, come i jailbreak”, ha detto Nicole Carignan, vicepresidente di strategic cyber AI presso Darktrace. “Un attore minaccioso può prendere il controllo dell’LLM e costringerlo a produrre output malevoli a causa della confusione implicita tra i piani di controllo e dati negli LLM”.

Oltre all’iniezione di prompt, esistono altri tipi di attacchi sugli LLM. “C’è il furto del modello”, ha detto Ashvin Kamaraju, vicepresidente globale dell’ingegneria e del cloud presso Thales. “Una volta che un cybercriminale ha accesso alla struttura del modello, può studiarne le capacità e cercare attivamente di sfruttare le vulnerabilità esistenti all’interno di un ambiente di test.

L’avvelenamento dei dati

Poi c’è l’avvelenamento dei dati. Questo attacco mira ai dataset pubblici utilizzati per addestrare i modelli di deep learning. Possono quindi manipolarli o corromperli con dati spurii”. In questo contesto, è fondamentale avere una forte sicurezza lungo tutta la catena di fornitura dello sviluppo dell’AI. Ciò significa avere sistemi di monitoraggio in atto, come LLMOps, per aiutare a rilevare deriva del modello e anomalie. Sarà inoltre necessario un processo di ingestione chiaro per i dati, che includa la versioning dei dati. La tecnologia AI generativa può essere utile anche per respingere gli attacchi informatici, poiché è abile nel rilevare schemi in enormi set di dati non strutturati.

L’AI generativa nell’analisi delle minacce

“L’AI generativa può aiutare ad accelerare l’analisi delle minacce, fornire controlli di accesso più stretti e intelligenti e aiutare nella risoluzione dei problemi”, ha detto Eyal Manor, vicepresidente del prodotto presso Check Point Software Technologies. L’azienda ha recentemente lanciato Check Point Infinity AI Copilot, alimentato da AI generativa. Utilizzando un’interfaccia chat, può risparmiare alle squadre IT fino al 90% del tempo necessario per le attività amministrative, secondo quanto dichiarato dall’azienda. Certo, ci sono numerosi copiloti di cybersecurity sul mercato.

Alcuni provengono da aziende come Microsoft, Google e Crowdstrike. Sebbene tali tecnologie siano ancora nelle prime fasi, mostrano promesse. “Mentre la maggior parte delle aziende sta testando la fattibilità commerciale dell’AI, vedranno anche i benefici dei processi di Cyber-AI”, ha detto Jim Guinn, partner e responsabile della cybersecurity e delle infrastrutture critiche presso EY. “La mia posizione è che la Cyber-AI avrà un tasso di adozione più lento rispetto ai processi aziendali che l’AI può aiutare ad automatizzare, ma arriverà”.

Articoli correlati

Articolo 1 di 4