Per i professionisti della cybersicurezza, l’intelligenza artificiale è una lama a doppio taglio. Sebbene l’AI abbia dimostrato le proprie potenzialità nel rafforzare le soluzioni di cybersicurezza con funzioni di riconoscimento dei pattern, sintesi e assistenza, tuttavia essa spalanca le porte anche ai malintenzionati che la possono sfruttare per i loro fini malevoli. Quale impatto potrà dunque avere l’AI in un mondo nel quale siamo in costante competizione per restare un passo avanti rispetto ai cybercriminali, specialmente considerando che si tratta di una tecnologia che continua a evolvere?
Indice degli argomenti:
Tecnologie nuove comportano minacce nuove
I cybercriminali hanno dimostrato che non bisogna sottovalutarli: aggiornano continuamente tattiche, strategie e tool per colpire le aziende, e l’AI non fa altro che rafforzare il loro arsenale. Utilizzata per imitare persone reali alterando voci, immagini e messaggi, contribuisce a rendere più convincenti i tentativi di phishing.
Oltre che per replicare i comportamenti umani, i cybercriminali hanno iniziato a sperimentare con l’AI anche a un livello più tecnico. Nei marketplace sotterranei sono apparse le pubblicità di modelli GPT dannosi che automatizzano le attività di penetration testing o lo sviluppo di nuovi malware.
Tuttavia, con un’esperienza che rispecchia quella già vista in ambiti legittimi, vi sono ancora alcune esitazioni da parte dei cybercriminali quando si tratta di implementare la tecnologia all’interno delle operazioni, dato che i malintenzionati stanno soprattutto esplorando l’AI generativa a scopo di sperimentazione e realizzazione di proof-of-concept.
Ciò non deve essere interpretato dalle aziende come un segnale di debolezza, dal momento che l’intelligenza artificiale è inevitabilmente destinata a diventare una componente regolare dei cyberattacchi. Al contrario, le aziende dovrebbero verificare l’uso sicuro e ottimale della tecnologia all’interno del proprio contesto di cybersicurezza.
Adottare l’AI, non per essere i primi, ma per essere smart
Aziende di ogni dimensione stanno studiando come poter utilizzare l’AI e Sophos ha rilevato che il 98% di esse la sta in qualche modo impiegando all’interno delle proprie infrastrutture di cybersicurezza. Oltre a questo, il 65% delle aziende adopera soluzioni di cybersicurezza comprensive di funzionalità di AI generativa, mentre il 73% usa soluzioni che integrano modelli di deep learning.
Se l’inserimento dell’AI nella cybersicurezza può portare numerosi vantaggi, essa implica anche una serie di rischi se non viene approcciata nella maniera corretta. Modelli di AI implementati erroneamente possono comportare rischi considerevoli: i risultati non possono essere adeguati se non vengono forniti gli input giusti.
Le aziende sono consapevoli di tale rischio, con la maggior parte (89%) dei professionisti della cybersecurity preoccupata delle potenziali vulnerabilità delle funzioni di AI generativa presenti nei tool di cybersicurezza; un livello di preoccupazione che diventa estremamente elevato per il 43% degli intervistati.
Nuovi problemi dall’Agentic Ai
I livelli di attenzione devono essere mantenuti elevati anche nei casi in cui l’AI venga implementata in strumenti non legati alla cybersecurity, poiché le tecnologie emergenti rappresentano delle minacce già nella loro fase iniziale. L’ Agentic AI, per esempio, è recentemente salita alla ribalta, ma resta aperta la questione se una tecnologia che apprende dagli esseri umani possa essere in grado di difendersi autonomamente dalle cyberminacce.
Allo stato attuale, l’AI dovrebbe essere affrontata con l’intenzione di servire a un unico scopo specifico; aspettarsi che un solo sistema o ‘agente AI’ possa fare di tutto con un minimo intervento umano significa spianare la strada a notevoli rischi.
I progressi di un’azienda nell’intelligenza artificiale, sia all’interno dell’infrastruttura di cybersicurezza che attraverso l’intero stack tecnologico, devono essere compiuti con le protezioni ben alzate e col controllo di un’adeguata supervisione.

Combattere “il fuoco con il fuoco“
Nella continua battaglia contro i cybercriminali, l’intelligenza artificiale è destinata a diventare semplicemente un moltiplicatore dell’innovazione che viene realizzata da entrambe le parti. Per le aziende sarà possibile evitare i rischi dell’AI all’interno dei sistemi di cybersicurezza solo adottando apposite tattiche di controllo e protezione:
- Verificare le capacità AI del vendor: l’AI richiede trasparenza. Chiedere ai fornitori di cybersicurezza come vengono addestrati i loro dati, quali siano le competenze AI dei loro professionisti e quali processi di rollout siano previsti per l’implementazione delle funzioni di AI aiuterà a ottenere un quadro più chiaro delle best practice implementate
- Definire rigidamente il perimetro dell’investimento AI: gli investimenti a favore della AI non possono essere affrettati; quindi, è importante determinare se la AI rappresenti effettivamente la miglior soluzione per le necessità di cybersicurezza del momento, dare priorità a investimenti di AI specifici e misurare l’impatto dell’intelligenza artificiale una volta che sia implementata nell’infrastruttura di cybersicurezza.
- Mantenere la priorità dell’essere umano nell’adozione dell’AI: le aziende non dovrebbero mai disinteressarsi della cybersicurezza una volta che l’abbiano implementata, regola che vale a maggior ragione quando risulta coinvolta l’AI. La cybersicurezza è in fondo una responsabilità umana e la AI dovrebbe essere usata come acceleratore per supportare – e non per rimpiazzare – i professionisti della cybersecurity.
Conclusioni
L’intelligenza artificiale è destinata a essere uno dei pilastri delle aziende per molti anni a venire. Lo stesso accade per la cybersicurezza; tuttavia, considerata la posta in gioco, è essenziale che la AI venga utilizzata correttamente affinché non produca effetti opposti a quelli desiderati, offrendo ai cybercriminali un vantaggio sulle potenziali vittime. Non si tratta di implementare una serie di funzionalità AI per estendere le infrastrutture di cybersecurity esistenti, quanto piuttosto di adottare le funzionalità adeguate a rispondere alle effettive esigenze della cybersicurezza.





