scenari

Google AI Overviews: quando l’innovazione rischia di diventare abuso



Indirizzo copiato

Il caso della FIEG che ha denunciato Google all’Agcom per AI Overviews, accusandolo di violare equo compenso e pluralismo informativo, apre un fronte europeo su copyright, trasparenza algoritmica, concorrenza e diritto all’informazione. Il commento degli esperti

Pubblicato il 24 ott 2025

Carlo Impalà

avvocato – partner e responsabile dip. TMT e Data protection di Morri Rossetti

Michele Loconsole

senior associate dip. IP di Morri Rossetti & Franzosi



AI Overviews Fieg

C’è un’immagine che restituisce bene la sensazione degli editori – e non solo degli editori – di fronte all’ultima evoluzione del motore di ricerca più potente del mondo: quella di un ecosistema informativo che si svuota di senso mentre in apparenza resta intatto. Le notizie continuano a esistere, i siti sono accessibili, le parole scorrono sugli schermi, ma qualcosa si è incrinato nel modo in cui l’informazione viene trovata, letta e, soprattutto, mediata.

Con il reclamo presentato il 15 ottobre 2025 dalla FIEG (Federazione Italiana Editori Giornali) all’Agcom, nel ruolo di Coordinatore nazionale dei servizi digitali ai sensi dell’art. 49 del Reg. UE 2022/2065 (Digital Services Act), l’editoria italiana ha voluto dire con forza che, a suo avviso, il confine tra innovazione e abuso è stato superato.

Il bersaglio è AI Overviews e la sua evoluzione AI Mode, le nuove funzioni di Google Search che, attraverso l’intelligenza artificiale generativa del modello Gemini, elabora un “riassunto intelligente” dei risultati, offrendo una risposta autonoma nella parte alta della SERP, spesso prima dei collegamenti ai siti editoriali.

Come agisce la funzione AI Mode

Secondo analisi di settore, la funzione denominata AI Mode, in particolare, sembrerebbe utilizzare la tecnica del “query fan-out”, scomponendo la richiesta dell’utente in sotto-domande simultanee ed elaborando una risposta sintetica che occupa la porzione centrale della pagina, relegando i collegamenti alle fonti in una colonna laterale marginale.

Dietro quella che appare come una naturale evoluzione tecnologica, si muove, in realtà, un sistema che ridisegna radicalmente il modo in cui l’informazione circola e viene monetizzata. L’AI generativa di Google non si limita a indicizzare i contenuti, ma li interpreta, li sintetizza e li presenta come un nuovo prodotto cognitivo, trattenendo l’utente all’interno dell’interfaccia e riducendo il flusso verso le fonti originarie.

Un modello che, se da un lato promette velocità e precisione, dall’altro solleva questioni giuridiche di portata inedita:

  • potenziali violazioni del diritto d’autore e del principio dell’equo compenso previsto dall’art. 43-bis L.d.A.;
  • possibili inadempienze agli obblighi di trasparenza e mitigazione dei rischi sistemici imposti dal DSA;
  • eventuali profili antitrust di abuso di posizione dominante e di auto-preferenza vietata dal Reg. UE 2022/1925 (Digital Markets Act);
  • fino ai rischi per i diritti fondamentali dei cittadini, come la libertà di informazione e il diritto all’oblio, che potrebbe risultare indebolito da un algoritmo che può rigenerare e riproporre informazioni già “dimenticate”.

Il reclamo FIEG, dunque, non riguarda solo la sopravvivenza economica degli editori, ma pone interrogativi sull’equilibrio dell’intero ecosistema informativo europeo: un banco di prova per capire se l’Europa sia in grado di applicare, in modo coerente e integrato, le regole che essa stessa ha costruito per governare la società digitale.

I precedenti Agcom e l’evoluzione del conflitto

Prima di AI Overviews, l’Agcom aveva già affrontato il tema del riequilibrio tra editori e piattaforme. Due casi in particolare – Gedi-Microsoft (Bing) e GEDI-Meta (Facebook/Instagram) – hanno rappresentato i primi test applicativi dell’art. 43-bis della legge sul diritto d’autore, che recepisce l’art. 15 della direttiva (UE) 2019/790 sul diritto connesso degli editori di pubblicazioni giornalistiche.

Nel primo caso, con delibera 278/24/CONS del 24 luglio 2024, l’Autorità ha determinato l’equo compenso dovuto da Microsoft Ireland per l’utilizzo online dei contenuti editoriali del gruppo Gedi mediante il motore di ricerca Bing.

Nel secondo, con delibera 180/25/CONS del 10 luglio 2025, ha imposto a Meta Platforms di riconoscere un indennizzo per la pubblicazione e condivisione dei contenuti giornalistici su Facebook e Instagram.

Questi provvedimenti hanno segnato un precedente importante: il diritto d’autore, a fronte dell’intermediazione digitale, può essere fatto valere anche in via regolatoria, non solo giudiziaria.

Tuttavia, AI Overviews apre un fronte nuovo, più sottile e più insidioso: non siamo più di fronte a un uso diretto di articoli, ma a un sistema che assorbe le informazioni, le rielabora e le ripropone come contenuto alternativo. È qui che il diritto incontra i limiti dell’intelligenza artificiale generativa: il valore non è più nel testo citato, ma nella sintesi, nel modo in cui l’informazione viene riscritta, ricontestualizzata e resa autonoma.

Il paradosso di Google: più accesso, meno libertà

Dal canto suo, Google difende Overviews come un servizio pro-utente, volto a migliorare l’esperienza di ricerca: risposte immediate, sintesi coerenti, meno tempo perso tra risultati poco pertinenti. Da un punto di vista degli utenti, pertanto, i vantaggi sono evidenti: rapidità, sintesi contestualizzata, risparmio di tempo nella navigazione tra fonti multiple.

Ma la logica economica sottesa è anch’essa evidente: trattenere l’utente all’interno dell’ecosistema Google, trasformando la ricerca in un’esperienza chiusa e autosufficiente.

Non si tratta più di un motore che “rimanda”, ma di una piattaforma che “parla”, fidelizza, profila e, secondo gli editori, sottrae traffico alle fonti originali.

Diverse analisi di settore ne suggeriscono l’impatto: secondo studi di società (come Similarweb e Semrush) pubblicati nel corso del 2024-2025, la percentuale di ricerche che si concludono senza click verso siti esterni (le cosiddette “zero-click searches”) sarebbe cresciuta significativamente negli ultimi anni, con stime che la collocano oggi tra il 60% e il 70% del totale delle ricerche.

Parallelamente, il click-through rate medio verso risultati organici avrebbe subito riduzioni misurate tra il 15% e il 25% in diversi settori verticali.

La visibilità dei risultati organici diminuisce, e con essa i ricavi pubblicitari e la capacità di mantenere modelli editoriali sostenibili.

Il paradosso è chiaro: più l’accesso all’informazione sintetizzata appare “libero”, più diventa mediato; più la conoscenza sembra universale, più dipende da un unico intermediario.

E in questa tensione si colloca il dibattito giuridico che il reclamo FIEG porta alla luce.

Dal diritto d’autore all’equo compenso: la “sintesi sostitutiva”

L’art. 43-bis L.d.A., introdotto con il d.lgs. 177/2021 in attuazione dell’art. 15 della direttiva 2019/790 (c.d. Direttiva Copyright), riconosce agli editori di pubblicazione di carattere giornalistico il diritto di riproduzione e comunicazione al pubblico, nonché il diritto a un equo compenso per l’utilizzo online delle loro pubblicazioni da parte dei prestatori di servizi della società dell’informazione (a patto che tali pubblicazioni abbiano meno di due anni).

Nel caso delle sintesi generative la questione diventa: quando un contenuto prodotto dall’AI si limita a “citare” e quando invece sostituisce l’opera originale? La legge esclude dalla remunerazione solo gli “estratti molto brevi” che non dispensano dalla consultazione dell’articolo integrale.

L’interpretazione di questa soglia è tuttavia oggetto di dibattito. Secondo AGCOM (Delibera 3-23-CONS), il criterio da adottare deve essere qualitativo, cioè fondato su caratteristiche intrinseche dell’informazione fornita in estratto e non ancorata a soglie di tipo numerico o quantitativo. Anche nel contesto di sintesi generate da AI, dunque, si dovrà condurre una valutazione caso per caso che tenga conto della “qualità” del output, che, per AI Overviews, spesso sembra già di per sé incontrare l’esigenza di informazione che l’utente mira a soddisfare con l’interrogazione rivolta al motore di ricerca. AI Overviews consente, infatti, di cogliere il “senso” del pezzo, senza più necessità di cliccare sulla fonte.

Il punto di vista tecnico-giuridico

Da un punto di vista tecnico-giuridico, siamo forse di fronte a una comunicazione a pubblico “nuovo” rispetto a quello cui è originariamente destinata l’opera dell’autore, con tutte le conseguenze che ne derivano. Come già riconosciuto dalla Corte di Giustizia nelle sentenze Svensson (C-466/12) e GS Media (C-160/15): l’intermediazione digitale che riproduce o rende accessibili contenuti protetti, anche solo in parte, rientra certamente nella sfera applicativa del diritto d’autore. In assenza di accordi specifici con gli editori, AI Overviews potrebbe dunque tradursi in una riproduzione o comunicazione non autorizzata, aggravata dal fatto che, allo stato, non risulta che Google abbia avviato negoziazioni ai sensi dell’art. 43-bis, commi 9-11, L.d.A. per la determinazione dell’equo compenso. La natura del servizio, inoltre, sembrerebbe far deporre per un uso che a prima vista si presenta potenzialmente “concorrente” con quello degli editori, sì da escludere l’applicabilità dell’eccezione di citazione prevista dalla legge italiana e dalla Direttiva Infosoc (Dir. 2001/29/CE).

Va altresì segnalato, tuttavia, che Google ha concluso accordi di licenza con vari editori europei e internazionali per l’utilizzo dei contenuti in prodotti AI, in particolare nell’ambito del programma Google News Showcase, e, di conseguenza, potrebbe sostenere che tali licenze si estendano anche all’utilizzo dei contenuti nei propri prodotti di intelligenza artificiale, incluso AI Overviews

Potrebbe inoltre invocare alcune eccezioni previste dalla normativa sul diritto d’autore, come quelle relative al text and data mining (artt. 3 e 4 della direttiva (UE) 2019/790) – seppur anche questo sia nella lente del dibattito europeo con riguardo alla sua applicabilità all’AI generativa e al relativo training, come testimonia il recente studio del Parlamento europeo – o al diritto di citazione a fini informativi, anche se, in ogni caso, la valutazione sulla legittimità effettiva di tali utilizzi spetterà alle autorità competenti, nazionali ed europee.

Nessuna indicazione “utile”, infine, parrebbe trarsi dalla pur recentissima entrata in vigore della legge sull’intelligenza artificiale (Legge 30 settembre 2025, n. 132).

Trasparenza algoritmica e rischio sistemico nel DSA

Oltre al profilo economico, la vicenda solleva un tema più ampio di governance algoritmica. AI Overviews è, a tutti gli effetti, un sistema di raccomandazione: decide quali fonti consultare, quanto peso attribuire a ciascuna di esse e in che modo presentare l’esito all’utente.

Per una Very Large Online Search Engine, il DSA impone due livelli di obblighi. Il primo è quello della trasparenza: l’art. 35 richiede la pubblicazione di informazioni accessibili sui criteri di ranking e sul funzionamento dei sistemi di raccomandazione.

Il secondo è la valutazione dei rischi sistemici (art. 34), tra cui figurano la disinformazione, l’impatto sui diritti fondamentali, la libertà di espressione e il pluralismo dei media.

Gli obblighi di trasparenza si confermano avere ruolo cruciale anche per la gestione dei diritti d’autore, come previsto dagli art. 23 e 23 del D. Lgs. n. 35/2017 sui rapporti tra collecting societies e utilizzatori di contenuti protetti, e recentemente ribadito dalla vicenda che ha visto protagonista Google e nuovo IMAIE davanti ad AGCOM (delibera n. 153/25/CONS dell’11 giugno 2025).

Se un algoritmo che domina il mercato riduce l’accesso a fonti diversificate e favorisce la concentrazione dell’attenzione su un’unica sintesi generata, potrebbe porsi un problema non solo di concorrenza, ma anche di sostenibilità del pluralismo informativo, posto che l’art. 11 della Carta dei diritti fondamentali dell’UE e l’art. 10 CEDU garantiscono la libertà di informazione intesa anche come pluralità di voci.

Resta quindi da valutare se l’effetto “traffic killer” di Overviews possa costituire una minaccia non solo per i ricavi degli editori, ma anche per la diversità e il pluralismo informativo su cui si regge un’opinione pubblica consapevole.

Diritto all’oblio e nuova “persistenza algoritmica”

Tra i profili meno discussi – ma potenzialmente più delicati – vi è altresì quello del diritto all’oblio. La tutela riconosciuta dal GDPR (art. 17) e dalla giurisprudenza europea (Google Spain, C-131/12) si fonda sull’idea che l’indicizzazione renda accessibili link a contenuti che possono essere deindicizzati su richiesta dell’interessato.

AI Overviews, tuttavia, introduce potenzialmente una frattura: la risposta fornita dall’AI non mostra link, ma sintetizza informazioni reperite in rete che potrebbero includere dati personali che potrebbero essere stati rimossi dai risultati tradizionali. La persona “dimenticata” potrebbe quindi riapparire in una forma nuova, parafrasata e difficilmente riconducibile a una fonte specifica. In tal caso, qualora la sintesi consenta l’identificazione diretta o indiretta della persona, la deindicizzazione tradizionale non sarebbe più sufficiente.

Va precisato che, allo stato, non è dimostrato che Google AI Overviews attinga effettivamente a fonti già deindicizzate o che non applichi le stesse policy di deindicizzazione anche ai sistemi di sintesi. Inoltre, occorre distinguere tra dati utilizzati per il training dei modelli (generalmente storici e difficilmente controllabili ex post) e dati recuperati in tempo reale per la generazione delle risposte (dove i controlli di deindicizzazione possono essere applicati).

La questione rimane tuttavia aperta e meritevole di approfondimento tecnico, nonché di un ripensamento dei rimedi: occorrerebbe infatti verificare se le piattaforme abbiano implementato meccanismi per garantire ex ante la liceità dei dati inclusi nelle sintesi, secondo i principi di privacy by design e by default (art. 25 GDPR). In assenza di controlli sull’output generativo, il diritto all’oblio potrebbe difatti ridursi a una tutela formale, inefficace nella sostanza.

È un problema, quindi, che non riguarda solo l’editoria, ma ogni cittadino la cui identità digitale potrebbe essere ricomposta algoritmicamente, qualora l’output consenta l’identificazione, diretta o indiretta, della persona.

DMA e profili di abuso di posizione dominante

Infine, sul piano concorrenziale, la condotta di Google – che detiene oltre il 90% del mercato europeo della ricerca – solleva potenziali interrogativi anche in chiave di possibile abuso di posizione dominante ex art. 102 TFUE e di self-preferencing ai sensi dell’art. 6, par. 5 del Digital Markets Act (Reg. UE 2022/1925).

L’answer box generativa, posizionata in cima ai risultati, sostituisce i contenuti di terzi con una risposta interna alla piattaforma, trattenendo l’utente e riducendo la visibilità dei concorrenti. Non è un semplice vantaggio tecnico, ma una forma nuova di autopreferenza cognitiva, secondo alcuni osservatori: il gatekeeper non promuove un proprio prodotto in senso stretto, ma riassorbe l’informazione nel proprio ambiente.

Tuttavia, l’applicazione dell’art. 6, par. 5 DMA – che riguarda principalmente il ranking di servizi e prodotti – a sintesi generate da AI è una questione interpretativa aperta, su cui non esiste ancora giurisprudenza consolidata.

È un’evoluzione del leveraging già contestato a Google nei casi Google Shopping e Google Jobs: la differenza è che ora l’effetto di chiusura non agisce solo sui mercati contigui, ma sull’intero ecosistema informativo. E in un mercato dove la visibilità è determinante, questo aspetto assume un rilievo che va oltre il piano puramente commerciale (anche se, va poi osservato, che, ai fini antitrust, occorre dimostrare non solo la posizione dominante e un vantaggio per il soggetto dominante, ma anche un danno effettivo ai consumatori finali o alla concorrenza).

La procedura e il ruolo dell’Agcom

L’istruttoria aperta dall’Agcom si inserisce nel meccanismo di cooperazione previsto dal DSA. L’Autorità può ricevere reclami, raccogliere dati, verificare impatti e, se del caso, trasmettere le proprie conclusioni alla Commissione europea, che detiene competenza esclusiva per vigilare sulle VLOP/VLOSE (artt. 50-51 DSA) e può comminare sanzioni fino al 6% del fatturato mondiale annuo.

In parallelo, la materia antitrust e quella del DMA restano di competenza diretta della Commissione, con possibilità di segnalazione e cooperazione da parte delle autorità nazionali.

Per quanto riguarda le eventuali violazioni del diritto d’autore e dell’equo compenso, va ricordato che la competenza primaria spetta al giudice ordinario, ferma restando la possibilità per l’Agcom di intervenire in sede regolatoria come nei precedenti GEDI. È dunque un sistema articolato su più livelli: da un lato, il procedimento regolatorio DSA, volto a garantire trasparenza e mitigazione dei rischi; dall’altro, la verifica concorrenziale sulla posizione dominante del gatekeeper e, in parallelo, eventuali azioni civilistiche per la tutela dei diritti d’autore.

I casi GEDI-Microsoft e GEDI-Meta mostrano, tuttavia, che l’Italia ha già sperimentato strumenti efficaci di enforcement nel settore dell’informazione. La vicenda FIEG-Google potrebbe costituire il passo successivo: la verifica se queste tutele possano essere efficacemente applicate anche nell’era della sintesi generativa.

Conclusioni

AI Overviews non è solo una nuova funzione di ricerca: è un simbolo di come l’intelligenza artificiale stia riconfigurando l’economia e la semantica dell’informazione. La sfida non è vietare la tecnologia, ma domarne il potere, affinché non si trasformi in un nuovo modello di concentrazione cognitiva e informativa.

L’Europa ha già degli strumenti normativi – DSA, DMA, GDPR, direttiva copyright, normativa antitrust – per poter intervenire; resta da vedere se saprà farli dialogare e applicarli con coerenza. La posta in gioco è complessa e richiede un bilanciamento tra interessi legittimi ma potenzialmente confliggenti: da un lato, la sopravvivenza economica degli editori, la qualità dell’informazione, la visibilità dei siti web indipendenti, la sostenibilità economica del giornalismo di qualità; dall’altro, il diritto degli utenti a un accesso rapido ed efficiente all’informazione, l’innovazione tecnologica, e la libertà di organizzare le informazioni in forme nuove.

Se l’Europa non troverà questo equilibrio, rischiamo da un lato la disintermediazione economica degli editori e dall’altro la progressiva erosione dell’autonomia informativa dei cittadini. Ma un eccesso di tutele protezionistiche potrebbe altresì frenare l’innovazione e privare gli utenti di strumenti efficaci di accesso alla conoscenza. Difendere l’equilibrio tra innovazione, trasparenza e diritto non significa arrestare il progresso, ma preservare tutti i diritti in gioco nell’epoca dell’automatismo informativo.

Come osservava Norberto Bobbio, “la democrazia è il governo del potere visibile”: l’opacità algoritmica potrebbe rischiare di rendere invisibile il potere di chi controlla il flusso informativo, sottraendolo al controllo democratico e alla responsabilità giuridica. È responsabilità quindi del legislatore e delle autorità di vigilanza preservare tale visibilità e tale responsabilità. E, in fondo, è risaputo che chi controlla i mezzi di informazione controlla anche la memoria collettiva. Oggi, nell’era degli algoritmi, questa responsabilità diventa ancora più cruciale.

Articoli correlati