libri

I falsi miti più diffusi sull’AI, e come superarli



Indirizzo copiato

Nel libro ‘Il teatro delle macchine pensanti – 10 falsi miti sull’intelligenza artificiale e come superarli’, Stefano Epifani smonta le più diffuse e radicate convinzioni sbagliate sulla (cosiddetta) intelligenza artificiale. Dall’idea che l’AI sia intelligente come l’uomo, imparziale, infallibile, alla convinzione che abbia intenzioni proprie

Pubblicato il 16 set 2025

Stefano Casini

giornalista



I falsi miti più diffusi sull’AI, e come superarli

Dall’idea che l’AI sia intelligente come l’Uomo, imparziale, infallibile, alla convinzione che abbia intenzioni proprie, o che funzioni come un cervello umano. Il mondo affascinante e tumultuoso dell’intelligenza artificiale è popolato anche da falsi miti, che producono disinformazione, errori e passività. E spesso impediscono di vedere le questioni vere, ovvero discriminazioni algoritmiche, concentrazione di potere, mancanza di trasparenza, esclusione sociale. 

Immagine che contiene Viso umano, persona, vestiti, ritrattoIl contenuto generato dall'IA potrebbe non essere corretto.

Nel suo libro ‘Il teatro delle macchine pensanti – 10 falsi miti sull’intelligenza artificiale e come superarli’, pubblicato da Digital Transformation Institute, Stefano Epifani smonta le più diffuse e radicate convinzioni sbagliate sull’AI, attraverso un percorso accessibile a chiunque voglia avvicinarsi a questi temi senza cadere nella retorica e nei luoghi comuni.

Guardare dietro le quinte dell’AI

La scelta di usare nel titolo il termine “teatro” non è solo una metafora, ma una chiave di lettura critica della questione. L’intelligenza artificiale, oggi, è spesso presentata e vista come un personaggio dotato di volontà, coscienza, potere. Come un attore in scena a cui attribuiamo ruoli mitici – salvatore, distruttore, giudice, oracolo –, proiettandovi aspettative e paure.

I falsi miti sull’Intelligenza artificiale “non sono solo errori concettuali”, rileva l’autore, “sono dispositivi narrativi che orientano immaginari, il dibattito pubblico, scelte politiche e comportamenti collettivi”.

A cominciare, per esempio, dall’impressione diffusa che l’AI sia intelligente come un essere umano, perché “è tutto tranne che intelligente, almeno nel senso umano del termine. Eppure, continuiamo a chiamarla così, perpetuando una narrazione che sposta il focus dalla realtà dei fatti alle suggestioni dell’immaginario collettivo”.

Il problema principale sta nella nostra inclinazione – profondamente umana – a interpretare quelle capacità secondo categorie che ci appartengono: quelle dell’intenzionalità, della coscienza, del pensiero. Ma sono una visione e un approccio spesso fuorvianti.

Dato che “le varie forme di AI, oggi, non sono intelligenti: simulano l’intelligenza, la mimano con impressionante coerenza linguistica, ma restano prive di comprensione, di intenzionalità, di consapevolezza. Appaiono intelligenti”.

Non è un cervello artificiale

Un altro miraggio è pensare che l’AI funzioni come il cervello umano. Su questo punto Epifani è drastico: “quando parliamo di reti neurali artificiali, ci troviamo di fronte a una delle analogie più ingannevoli della storia della tecnologia: quella che paragona il cervello umano a una macchina computazionale. Ma davvero siamo disposti a pensare che il pensiero sia riducibile a un algoritmo e la coscienza a una somma di nodi? Invece di spiegare le reti neurali per quello che sono, si è preferito raccontarle come cervelli in miniatura. Una versione da romanzo di fantascienza, insomma, con tutti i limiti del caso”.

In pratica, il rischio di banalizzare e distorcere questioni e fattori complessi, cercando magari di renderli più comprensibili e immediati, è sempre dietro l’angolo. Ma un’approssimazione dietro l’altra può portare a risultati, soprattutto in termini di convinzione e opinione del grande pubblico, sbagliati e lontani dalla realtà.

Falsi miti, miraggi e allucinazioni

Ecco un altro caso, di termini e narrazioni sull’AI che possono essere ingannevoli o poco corrispondenti allo stato delle cose: il fenomeno che chiamiamo “allucinazione”, nei modelli generativi di AI, consiste nella produzione di contenuti che appaiono plausibili ma che, a un’analisi più attenta, risultano del tutto inventati, infondati, o semplicemente falsi.

Il modello, in sostanza, dice cose che sembrano vere ma non lo sono. Ma l’AI non mente, non inganna, non delira. Semplicemente sbaglia. Ma lo fa in un modo tanto convincente da trarre in inganno.

E allora, “per spiegare l’inganno, ricorriamo a un termine mutuato dalla psicologia clinica: allucinazione, un fenomeno percettivo, soggettivo, che presuppone – guarda caso – un soggetto. Una mente. Una coscienza. Una qualche forma di interiorità insomma. Applicato a un sistema di AI, la cui interiorità è analoga a quella di una lavatrice, questo termine è una forzatura semantica, se non un errore concettuale vero e proprio”.

Non è una tecnologia come le altre

Un altro aspetto spesso da chiarire e comprendere meglio riguarda l’uso e lo sviluppo dell’AI rispetto alla sostenibilità ambientale: quando discutiamo dell’impatto ambientale, infatti, dobbiamo evitare il rischio di guardare solo al consumo diretto di energia.

La domanda giusta da porsi non è semplicemente “quanto consuma?”, ma invece “quale sarebbe il consumo necessario per quel particolare processo se non ci fosse l’AI?”. In altri termini, è necessario confrontare l’energia impiegata con quella che l’assenza della tecnologia renderebbe inevitabile.

Allo stesso tempo, c’è un altro aspetto fuorviante: l’idea che l’intelligenza artificiale “sia una tecnologia come le altre – neutra, prevedibile, regolabile con strumenti tradizionali – è uno dei più insidiosi falsi miti della contemporaneità”. Se l’AI è una tecnologia come le altre, “allora possiamo trattarla con gli strumenti normativi, cognitivi e politici che abbiamo sempre usato. Ma l’AI è diversa. Perché osserva, prevede, rappresenta. E nel farlo, modifica le condizioni stesse della nostra capacità di conoscere e decidere”.

Articoli correlati