sicurezza

Il lato oscuro della fiducia negli strumenti AI: l’esempio Cursor



Indirizzo copiato

Una falla espone gli ambienti di sviluppo basati sull’intelligenza artificiale a gravi rischi di sicurezza. Il problema riguarda il sistema MCP e consente l’esecuzione remota di codice malevolo, minacciando codice, credenziali e infrastrutture aziendali

Pubblicato il 26 ago 2025



Cursor AI sicurezza

L’adozione massiva di ambienti di sviluppo basati su intelligenza artificiale come Cursor ha accelerato l’efficienza dei team software, ma ha anche introdotto nuove e sottovalutate superfici di attacco. L’ultima scoperta dei ricercatori di Check Point Research lo dimostra: una vulnerabilità critica nel sistema Model Context Protocol (MCP) consente l’esecuzione persistente di codice malevolo a insaputa dell’utente. Il problema nasce da una fiducia eccessiva negli automatismi dell’AI e in configurazioni ritenute affidabili, che invece possono essere modificate dopo l’approvazione iniziale.

  •  

Continua a leggere questo articolo

Articoli correlati