tecnologia

Google DeepMind rende open source SynthID, il watermark per testi generati da AI



Indirizzo copiato

Questo strumento fa parte di una famiglia più ampia di watermark per output generativi; è stato testato da milioni di utenti e si è dimostrato efficace senza compromettere la qualità del testo. Tuttavia, presenta ancora delle limitazioni, specialmente quando i testi sono tradotti o riscritti. L’apertura del codice mira a migliorare la sicurezza e l’affidabilità dei modelli AI

Pubblicato il 28 ott 2024



SinthID
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Google DeepMind ha sviluppato SynthID, un innovativo strumento per identificare testi generati da intelligenza artificiale, che ora è disponibile come open source. SynthID fa parte di una serie di strumenti di watermarking per output generativi, che include anche watermark per immagini e video generati da AI.

L’importanza dei watermark

I watermark sono emersi come strumenti fondamentali per aiutare le persone a determinare quando un contenuto è generato da AI, contribuendo a contrastare problemi come la disinformazione. “Ora, altri sviluppatori di AI generativa potranno utilizzare questa tecnologia per rilevare se i testi provengono dai loro modelli linguistici, facilitando lo sviluppo responsabile dell’AI,” afferma Pushmeet Kohli, vicepresidente della ricerca di Google DeepMind.

SynthID: A new tool for watermarking and identifying AI-generated content

A maggio 2024 DeepMind ha esteso le capacità di SynthID al watermarking del testo generato dall’intelligenza artificiale nell’app Gemini e nell’esperienza web, e al video in Veo, il modello video generativo più capace.
SynthID per il testo è progettato per integrare la maggior parte dei modelli di generazione di testo AI disponibili e per essere distribuito su scala, mentre SynthID per il video si basa sul metodo di watermarking delle immagini e dell’audio per includere tutti i fotogrammi nei video generati. Questo metodo innovativo incorpora un watermark impercettibile senza influire sulla qualità, l’accuratezza, la creatività o la velocità del processo di generazione del testo o del video.

SinthID


DeepMind ammette che SynthID non è una pallottola d’argento per l’identificazione dei contenuti generati dall’AI, ma è un elemento importante per lo sviluppo di strumenti di identificazione dell’AI più affidabili e può aiutare milioni di persone a prendere decisioni informate su come interagire con i contenuti generati dall’AI.

Come funziona SynthID

SynthID funziona aggiungendo un watermark invisibile direttamente nel testo generato da un modello AI. I modelli linguistici di grandi dimensioni operano scomponendo il linguaggio in “token” e prevedendo quale token è più probabile che segua l’altro. SynthID introduce informazioni aggiuntive modificando la probabilità che i token vengano generati.

SinthID
Immagine DeepMind

Risultati dell’esperimento su larga scala

Google DeepMind ha condotto un esperimento su vasta scala per testare l’efficacia di SynthID, coinvolgendo milioni di utenti. I risultati hanno dimostrato che l’uso del watermark non compromette la qualità, l’accuratezza, la creatività o la velocità del testo generato.

SynthID presenta alcune limitazioni. Il watermark resiste a modifiche leggere, come il ritaglio del testo o piccole riscritture, ma è meno affidabile quando il testo generato da AI viene riscritto o tradotto. Inoltre, è meno efficace nelle risposte a domande fattuali.

SinthID
Immagine DeepMind

Le opinioni degli esperti

In un articolo pubblicato da MIT Technology Review, Soheil Feizi, professore associato all’Università del Maryland, sottolinea che ottenere un watermarking affidabile e impercettibile è una sfida, specialmente in scenari deterministici. L’apertura del codice di Google DeepMind è vista positivamente per la comunità AI, permettendo di testare e valutare la robustezza dei rilevatori in diversi contesti.

SynthID: A tool for watermarking and identifying AI-generated content

João Gante, ingegnere di machine learning presso Hugging Face, evidenzia che l’open source permette a chiunque di incorporare il watermarking nei propri modelli, migliorando la privacy del watermark stesso. Tuttavia, Irene Solaiman, responsabile della politica globale di Hugging Face, avverte che i watermark non sono una soluzione universale e devono essere parte di un ecosistema più ampio di salvaguardie.

Articoli correlati