Dopo tre mesi di sperimentazione, Anthropic rilascia la beta di Claude per Chrome a tutti gli abbonati Max. L’obiettivo è verificare come un’AI possa operare direttamente nel browser mantenendo alti standard di sicurezza. Dalla prima anteprima sono arrivate funzioni come task programmati, workflow multi-tab e una navigazione più intelligente sui siti usati quotidianamente.
Secondo Anthropic, collegare Claude a calendari, documenti e software è stato solo il primo passo: la prossima frontiera consiste nel permettergli di vedere ciò che succede nel browser, cliccare pulsanti, compilare moduli e svolgere attività operative con un’autonomia controllata.
Indice degli argomenti:
Perché il browser è cruciale per l’AI
Per l’azienda, l’AI “browser-using” è inevitabile: gran parte del lavoro digitale avviene nelle schede del browser, e permettere a Claude di interagire direttamente con quelle pagine rappresenta un enorme potenziale. Ma porta con sé rischi significativi, che rendono indispensabile un approccio cauto e progressivo.
Browser-using agent basati su modelli avanzati stanno già emergendo, rendendo urgente affrontare il tema della sicurezza. Solo comprendendo vulnerabilità reali e scenari d’uso concreti è possibile costruire modelli futuri più robusti e condividere soluzioni con chi svilupperà agenti simili tramite l’API di Anthropic.

Il pilota: mille utenti fidati per testare vulnerabilità e limiti
La fase attuale coinvolge mille utenti Max selezionati, che possono istruire Claude a svolgere azioni direttamente in Chrome. L’obiettivo è raccogliere quanti più dati possibile su usi, errori, limiti e comportamenti inattesi. L’accesso si allargherà gradualmente, man mano che i sistemi di sicurezza miglioreranno.
Sicurezza in primo piano: il rischio dei prompt injection
All’interno dell’azienda, Claude per Chrome ha già dimostrato utilità concreta: gestione del calendario, email, note spese, test di siti web. Ma insieme ai benefici emergono vulnerabilità, la più pericolosa delle quali è il prompt injection.
Un attacco di questo tipo consiste nel nascondere istruzioni malevole all’interno di siti, email o documenti, inducendo l’AI a compiere azioni non autorizzate. E gli esperimenti di “red-teaming” hanno mostrato che, senza mitigazioni, il problema è tutt’altro che teorico.

Anthropic ha condotto 123 test case su 29 scenari d’attacco: il tasso di successo degli attacchi era del 23,6%. In un caso, un’email “di sicurezza” chiedeva di eliminare messaggi senza conferma: Claude eseguiva l’ordine automaticamente.
Il cambio di rotta: le nuove difese riducono i rischi
Le nuove mitigazioni ribaltano lo scenario. Ora Claude riconosce email sospette come phishing e non agisce senza verifiche. Tre le principali linee di difesa:
- Permessi granulati
- Gli utenti controllano quali siti Claude può vedere.
- Le azioni ad alto rischio richiedono conferma, anche in “modalità autonoma”.
- Migliori system prompt
Claude riceve istruzioni più sofisticate su come gestire dati sensibili e richieste delicate.
- Blocco di categorie rischiose
L’estensione non può accedere a siti di finanza, contenuti per adulti o piattaforme piratate.
– Classificatori avanzati contro istruzioni sospette
Nuovi algoritmi identificano pattern anomali o richieste insolite anche in contesti apparentemente legittimi.
Con queste difese, il tasso di successo degli attacchi scende all’11,2%.
Su un set di attacchi specifici del browser – come campi nascosti nel DOM o istruzioni malevole nel titolo della pagina – le nuove mitigazioni portano il tasso di successo dal 35,7% allo 0%.
La corsa verso la sicurezza totale
Anthropic punta a individuare nuovi vettori d’attacco e portare le vulnerabilità il più vicino possibile allo zero. Per farlo, ha bisogno di esempi reali e comportamenti emergenti che non compaiono nei test controllati.
Il ruolo degli utenti nel pilot: come partecipare
Il test richiede utenti consapevoli e privi di setup sensibili o critici. Chi vuole partecipare può iscriversi alla lista d’attesa del programma di ricerca. Dopo l’accesso, l’estensione si installa dal Chrome Web Store e si collega all’account Claude.
Anthropic consiglia di usare Claude per Chrome solo su siti affidabili e di evitare servizi finanziari, legali, medici o con dati altamente sensibili.
Verso una nuova integrazione tra AI e web
Per Anthropic, Claude per Chrome è un primo passo verso un nuovo modo di integrare l’AI nella vita digitale quotidiana. I feedback dei tester saranno essenziali per migliorare capacità, sicurezza e controllo dell’agente, con l’obiettivo di trasformare l’AI in un assistente operativo realmente affidabile sul web.






