L’AI avanza a una velocità che l’industria pubblicitaria fatica a tenere. Al festival Lions di Cannes 2025, l’attenzione di tutti era concentrata sulla corsa per essere tra i primi a lanciare l’AI. Le conversazioni spaziavano dalla presentazione da parte di Meta di una serie di strumenti basati su AI per aiutare gli inserzionisti ad automatizzare la produzione creativa, fino alle preoccupazioni per la possibile perdita di posti di lavoro, mentre agenzie e holding annunciavano licenziamenti pur continuando a investire massicciamente nell’AI.
Ma in mezzo a tutto questo clamore, nessuno sembrava guidare davvero il dibattito sull’etica dell’AI
Marketing, editori, agenzie e piattaforme fanno ormai affidamento sull’AI praticamente per tutto: supporta l’acquisto dei media, blocca le frodi, scrive testi pubblicitari e genera persino contenuti creativi. Il suo potenziale continua a crescere, con nuove applicazioni che emergono quasi ogni giorno, dai consigli personalizzati, agli agenti del customer care, fino alla generazione avanzata di contenuti. Eppure, non esistono standard chiari e universali su come debba essere utilizzata, testata o comunicata: ognuno improvvisa strada facendo.
In diversi settori, i governi stanno già sperimentando regole diverse sull’AI, tutte incentrate su temi come trasparenza e responsabilità. Se il settore dell’advertising aspetta che questo mosaico normativo stabilisca gli standard, rischia di trovarsi costretto a rispettare le regole in modo reattivo, invece di guidare autonomamente l’adozione di propri standard.
Indice degli argomenti:
Il far west dell’AI
In questo momento, l’industria pubblicitaria si trova in un vero e proprio far west dell’AI. La tecnologia avanza a grande velocità, ma le regole non riescono a tenere il passo.
Il lato positivo è che l’AI offre benefici straordinari: aiuta i professionisti del marketing a lavorare in modo più efficiente, ottimizzare le campagne e personalizzare i contenuti creativi in modi impensabili, fino a pochi anni fa.
Ma insieme ai progressi emergono problemi concreti. I pregiudizi possono insinuarsi nei sistemi senza che nessuno se ne accorga e la disinformazione può diffondersi su larga scala.
Contenuti di bassa qualità, generati dall’intelligenza artificiale stanno già invadendo il web e minano la fiducia degli utenti. Secondo Europol, entro il 2026 fino al 90% dei contenuti online potrebbe essere generato dall’AI. Siti basati sull’AI pubblicano già oltre 1.200 articoli al giorno, aumentando il volume per massimizzare i ricavi pubblicitari.
L’assenza di regole concordate rende troppo facile l’adozione di pratiche approssimative o comportamenti scorretti. Senza responsabilità, il fondamento dei media digitali, ovvero la fiducia, potrebbe crollare. Se ciò accadesse, tutti ne risentirebbero.
La pressione per adottare pratiche responsabili non è esclusiva del settore pubblicitario. Altri settori, dai servizi finanziari alla sanità, sono già sotto esame per il modo in cui utilizzano l’intelligenza artificiale. Lo stesso livello di aspettative arriverà anche ai media e alla pubblicità e le aziende che si preparano ora avranno un vantaggio su chi sceglie di aspettare.
Come dovrebbe essere un’AI responsabile
Ma come si traduce in pratica un’AI etica e responsabile? L’AI responsabile non è solo una politica aziendale: deve essere integrata nelle pratiche quotidiane e vissuta ogni giorno. Tutto parte dalla supervisione umana: le persone devono rimanere coinvolte per individuare i problemi prima che diventino questioni più gravi.
La riduzione dei bias è un altro passaggio fondamentale. Se non controllata, l’AI può rafforzare o addirittura aggravare pregiudizi esistenti. Le aziende hanno bisogno di processi chiari per identificare e ridurre questi rischi.
Anche i controlli su dati e infrastrutture IT sono cruciali. I sistemi di AI necessitano di grandi quantità di dati che, spesso, contengono informazioni sensibili: proteggerli è fondamentale.
Infine, la trasparenza genera fiducia. Gli esperti di marketing, gli editori e i consumatori hanno il diritto di sapere come funziona l’AI e cosa c’è dietro i sistemi che utilizzano. Quando le aziende sono aperte, le persone sono più propense a fidarsi dei risultati.
Questi principi non sono solo teoria. Sono passi concreti che permettono all’AI di rimanere potente ma sicura.
L’importanza della certificazione da parte di terzi
Le politiche interne sono un buon punto di partenza, ma non sono sufficienti. Poiché l’intelligenza artificiale sta diventando fondamentale per la misurazione e l’ottimizzazione dei media, le aziende hanno bisogno di una convalida esterna.
È qui che entra in gioco la certificazione di terze parti. Organizzazioni indipendenti come Alliance for Audited Media (AAM), International Organization for Standardization (ISO) e TrustArc possono intervenire per testare, validare e certificare i sistemi di AI. In questo modo si dimostra che gli strumenti adottati rispettano elevati standard etici e tecnici, non solo quelli definiti internamente.
La certificazione esterna invia un segnale forte e chiaro: comunica ai clienti, ai partner e al pubblico che l’azienda prende sul serio l’AI responsabile. Dimostra che non si tratta solo di dichiarazioni, ma di un impegno concreto e verificabile.
In un mercato in cui la fiducia è tutto, questo tipo di convalida può trasformarsi in un potente vantaggio competitivo.
Assumersi la responsabilità
L’intelligenza artificiale continuerà a plasmare sempre più a fondo il settore pubblicitario. Per questo la leadership è importante adesso.
Sebbene esistano già alcune normative in materia di intelligenza artificiale, la tecnologia sta avanzando molto più rapidamente di quanto la normativa riesca a tenere il passo. La scelta più intelligente è agire subito, fissando standard elevati e guidando il settore con pratiche responsabili. Prendere l’iniziativa dimostra ai clienti e ai partner che si è pronti ad affrontare il futuro, conquistando credibilità mentre i concorrenti sono ancora in difficoltà.
Il futuro della pubblicità dipenderà dal modo in cui il settore saprà gestire l’intelligenza artificiale. Usare questa tecnologia in modo consapevole, equo ed etico è una responsabilità condivisa.






