tecnologia

Slopsquatting, l’insidiosa minaccia nascosta dietro gli assistenti AI di coding



Indirizzo copiato

La diffusione degli assistenti di codifica AI accelera i progetti, ma introduce una minaccia inedita: pacchetti software inventati che possono essere sfruttati dai cybercriminali tramite slopsquatting. Questa tecnica si infiltra nelle pipeline di sviluppo e nei repository pubblici, rendendo urgente l’adozione di strategie di sicurezza avanzate e di una maggiore consapevolezza tra gli sviluppatori

Pubblicato il 29 lug 2025



slopsquatting supply chain

L’ausilio degli strumenti di generazione del codice basati su intelligenza artificiale stanno apportando profonde modifiche alla programmazione e al lavoro quotidiano degli sviluppatori. Sistemi come GitHub Copilot, Cursor AI e ChatGPT oltre a diventare parte integrante delle sessioni di sviluppo, ha semplificato i processi ridotto i tempi di consegna e aumentato l’efficienza dei team. Ma dietro questa accelerazione della produttività si nasconde una nuova vulnerabilità che potrebbe minare la sicurezza dell’intera supply chain software: lo slopsquatting.

Quando l’AI “inventa” il software

Il problema nasce dalle cosiddette “allucinazioni” dei modelli di intelligenza artificiale. Si tratta di suggerimenti di pacchetti software che non esistono ma che, per nome e struttura, sembrano del tutto plausibili. Uno studio condotto da tre università statunitensi – Texas a San Antonio, Oklahoma e Virginia Tech – ha rilevato che i modelli open-source commettono questo tipo di errore con una frequenza preoccupante: oltre il 20% dei suggerimenti analizzati si è rivelato inesistente. Gli strumenti commerciali fanno meglio, ma registrano comunque un tasso di errore attorno al 5%.

Questi pacchetti inventati sono difficili da riconoscere perché imitano in modo convincente quelli reali. In alcuni casi, il problema si complica ulteriormente con una sorta di “contaminazione linguistica”: assistenti addestrati su Python hanno suggerito pacchetti JavaScript inesistenti, un fattore che può disorientare anche sviluppatori esperti.

slopsquatting supply chain

Dallo “scherzo” al rischio globale

Gli hacker hanno colto rapidamente l’opportunità e hanno creato una variante del typosquatting chiamata slopsquatting. Invece di sfruttare errori di battitura, questa tecnica si basa sugli stessi pacchetti inesistenti suggeriti dall’AI. Gli aggressori registrano questi nomi su repository ufficiali come npm o PyPI, all’interno del quale inseriscono codice malevolo. Quando uno sviluppatore si fida delle raccomandazioni dell’AI e installa il pacchetto, introduce inconsapevolmente una backdoor o un malware nel proprio progetto.

Un episodio avvenuto alla fine del 2023 ha dimostrato la portata del problema. Un ricercatore di sicurezza ha registrato il pacchetto inesistente “huggingface-cli”, spesso suggerito da alcuni modelli AI, come test innocuo. In pochi giorni migliaia di sviluppatori lo hanno installato, inclusi team di grandi aziende come Alibaba. Se quell’esperimento fosse stato malevolo, le conseguenze sarebbero state devastanti.

La vulnerabilità della catena di distribuzione

Le moderne pipeline di integrazione e distribuzione continua (CI/CD) amplificano il rischio: un singolo pacchetto compromesso può propagarsi rapidamente fino agli ambienti di produzione, compromettendo applicazioni e servizi in modo capillare. Gli strumenti di sicurezza tradizionali, basati sulla reputazione storica dei pacchetti, non sono pronti a intercettare minacce così nuove e dinamiche.

Per questo motivo diventa cruciale introdurre controlli più rigorosi e processi di verifica manuale, affiancati da una maggiore consapevolezza degli sviluppatori. Gli esperti consigliano di utilizzare lockfile, versioni fissate e controlli crittografici sugli hash per garantire l’integrità dei pacchetti, oltre a mantenere repository interni affidabili.

slopsquatting supply chain

L’equilibrio tra sicurezza e produttività

Alcuni ricercatori stanno sperimentando soluzioni tecniche per ridurre le allucinazioni, come la retrieval augmented generation (RAG) o la supervisione avanzata. Queste strategie riescono a ridurre gli errori fino all’85%, ma rischiano di degradare la qualità complessiva del codice generato. La sfida è quindi trovare un equilibrio tra velocità di sviluppo e sicurezza. Allo stesso tempo, la cultura organizzativa gioca un ruolo chiave. La revisione tra pari dei pacchetti, l’adozione di policy interne e la formazione specifica sono strumenti indispensabili per evitare che le raccomandazioni dell’AI vengano accettate senza un controllo critico.

Articoli correlati