Analisi

Disinformazione in rete: quanta responsabilità ha l’intelligenza artificiale

Sul web proliferano le false notizie, a volte innocue, a volte pericolose: le fake news sono spesso create tramite l’AI, modificando la realtà, sia essa una immagine, un video o un discorso. È possibile riconoscerle e, così facendo, difenderci?

Pubblicato il 09 Mag 2023

disinformazione AI

Fake news: quasi tutte le aziende tecnologiche, firmatarie del «Codice di Buone Pratiche sulla Disinformazione» dell’Unione Europea, hanno pubblicato, per la prima volta, con l’esclusione di Twitter, una serie di informazioni su come intendano affrontare le false notizie, o “fake news“, in rete. La maggior parte di esse utilizzerà anche l’intelligenza artificiale a tale scopo. Sembra un’ottima notizia, ma c’è il lato oscuro, e di quello si parla molto meno, ovvero del fatto che un’intelligenza artificiale può essere usata in modo efficace come arma di disinformazione.

L’AI come strumento di disinformazione

È già possibile? Probabilmente non sorprenderà scoprire che la risposta è del tutto positiva, ovvero che già oggi, con il livello di tecnologia raggiunto in questo settore, un’intelligenza artificiale possa essere usata come un efficace strumento di disinformazione di massa.

Va tuttavia fatta una premessa. In genere si pensa alla disinformazione come alla “bufala” che si trova in rete, ovvero come a qualcosa di fastidioso, ma non necessariamente pericoloso. Purtroppo, non è così. Una disinformazione fatta bene, ovvero fatta prevalentemente di informazioni e dati assolutamente verificabili e affidabili, può influenzare le decisioni anche di persone esperte e, comunque, di persone le cui decisioni possono a loro volta influenzare la vita di milioni di altri individui. Viceversa, influenzando milioni di persone su argomenti dei quali hanno solo una percezione di competenza, si può orientare l’opinione pubblica e, di conseguenza, fare pressione sulla politica e sulle istituzioni affinché si deliberino provvedimenti specifici.

Ricordiamo sempre che la nostra vita è un continuo prendere decisioni, decisioni che hanno più o meno peso sulla nostra vita e su quelle degli altri. Per farlo ci basiamo su quello che sappiamo o crediamo di sapere, per cui modificando questa vera o presunta conoscenza, si possono orientare le nostre decisioni senza che noi ce ne rendiamo conto.

Se poi si pensa che la disinformazione è nata come arma bellica e che lo scopo era quello di ingannare gli analisti avversari, ovvero persone esperte, preparate e che sapevano benissimo che si cercava di trarle in inganno, comprendiamo bene come una disinformazione efficace possa a maggior ragione avere facile presa su chi tali specifiche competenze non ce l’ha.

Spesso noi pensiamo che essere tratti in inganno dipenda dal non essere intelligenti o preparati, ma non è così. La disinformazione fatta bene riesce a fuorviare anche persone geniali e persino coloro che di disinformazione se ne intendono. È una scienza e un’arte e nessuno, ma proprio nessuno, ne è immune.

disinformazione intelligenza artificiale
Immagine generata con il servizio “This person don’t exist”

Su cosa si basa la disinformazione

Ci sono due fattori di successo su cui si basa la “buona” disinformazione: il primo è quello di usare prevalentemente la verità per portare una persona o un gruppo di persone a raggiungere la conclusione che vogliamo noi, anche se quest’ultima è del tutto falsa; il secondo è quello di non farlo cercando di convincere qualcuno di qualcosa del quale dubita, ma piuttosto rafforzandolo in ciò in cui crede veramente. E questo portandolo persino a raggiungere una conclusione del tutto incoerente con ciò in cui crede, ovvero ad accettare un elevato livello di incoerenza fra premesse e conclusione.

E qui arriviamo alle intelligenze artificiali. La prima cosa che può fare un’intelligenza artificiale è profilare ognuno di noi, sia individualmente che nel nostro relazionarci con gli altri. Si sa infatti che le persone non si comportano o ragionano sempre allo stesso modo, ma il loro comportamento si adatta spesso al contesto, agli interlocutori, al gruppo di appartenenza, alla cultura nella quale si trovano immersi. È un meccanismo di sopravvivenza che fa sì che a seconda della situazione, diciamo o facciamo le cose anche in modo leggermente diverso, ma comunque funzionale a una maggiore accettazione da parte del contesto in cui ci troviamo.

Quindi la prima cosa che un’intelligenza artificiale può fare è capire in quale situazione e con quali argomentazioni è più facile portarci nella direzione da lei desiderata, e può fare questo per ognuno di noi, ovvero può interagire contemporaneamente con milioni di persone in milioni di modi diversi. Comprenderete bene quanto questo sia più potente rispetto anche al miglior discorso del miglior oratore possibile, che resta comunque sempre lo stesso per tutti coloro che lo ascoltano.

La seconda cosa che un’intelligenza artificiale può fare, purché addestrata nel modo giusto e con appositi modelli, è di capire quali conclusioni siano le più adatte per portare le persone a prendere determinate decisioni e quindi influenzare il corso della storia. Anche qui, non è detto che tutti debbano raggiungere la stessa conclusione, anzi. Se voglio ad esempio scatenare un conflitto perché è funzionale al mio piano di destabilizzazione sociale, devo solo creare due o più gruppi e indurli a credere in idee antitetiche, specificatamente selezionate per non essere riconducibili a un’unica posizione attraverso un’attività negoziale.

Posso addirittura creare un complesso modello sociale di relazione dove gruppi diversi giochino ruoli diversi, da quelli estremi e in conflitto fra loro, a quelli moderati ma incapaci di concordare una linea d’azione, fino persino agli indecisi. Già, perché si può far sì che una fetta della popolazione sia indecisa. Se ad esempio voglio far fallire un referendum, non facendo vincere i “no” in modo chiaro, ma semplicemente per non avere raggiunto il quorum, in quanto funzionale al mio progetto di destabilizzazione, posso farlo ampliando la fetta di indecisi.

Tutto questo interagendo in lingue diverse, adattando i messaggi a culture diverse, sostenendo ogni messaggio con immagini e video generati appositamente, ovvero creando dal nulla dati e informazioni in modo che non solo siano verosimili, ma che si rafforzino a vicenda nella percezione di un’assoluta affidabilità, per poi integrarli con materiale di repertorio assolutamente vero e inconfutabile. In pratica, senza davvero mentire. Chiaramente omettendo e minimizzando tutto ciò che può essere usato per contestare quanto sto dicendo, usando la satira, l’ironia, la razionalizzazione, menzionando in modo selezionato affermazioni di esperti, decontestualizzandone le affermazioni o riordinandole sul piano temporale, tecnica estremamente efficace.

disinformazione AI

La disinformazione è già qui

Tutto ciò è già possibile, oggi, e forse si sta già facendo. Se pensate a come certi ambienti, come quello politico o borsistico, siano sensibili anche alle notizie apparentemente meno rilevanti, e quanto questi ambienti a loro volta “pesino” nella nostra società, è facile capire come si possa innescare un “effetto farfalla controllato”, con l’esplicito scopo di generare il tornado dove e quando lo vogliamo noi.

L’ultimo elemento che le intelligenze artificiali possono mettere sul piatto della bilancia è la capacità di far questo a livello globale, macinando enormi moli di dati in tempi estremamente brevi, e quindi avere una reattività spaventosa a eventuali reazioni impreviste, che permetterebbe loro di modificare in corso d’opera la strategia di disinformazione mantenendone intatta l’efficacia.

A tutto ciò nessun governo, organizzazione o individuo è attualmente preparato. Non abbiamo alcuna forma di difesa, anche perché il vero problema è che potremmo non capire neppure di essere sotto attacco.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4