In un mondo saturo di informazioni, reti e ora anche applicazioni di intelligenza artificiale, la nostra mente si trova come sotto assedio.
Attraverso le tecnologie algoritmiche, aziende private, forze politiche e altre organizzazioni possono appropriarsi dei nostri dati, analizzare le nostre attività e anche le emozioni, e falsificare la realtà producendo testi, audio e immagini ingannevoli.
Le tecnologie algoritmiche “approdano, evidentemente, in una società che non è pronta ad accoglierle. Né culturalmente, né istituzionalmente, né giuridicamente, né moralmente”, rileva il giornalista e podcaster svizzero Bruno Giussani nel suo libro ‘La mente sotto assedio’, pubblicato da Edizioni Casagrande.

Si tratta di strumenti senza precedenti – ben più potenti della propaganda e della disinformazione finora conosciute – con cui possono influenzarci e manipolarci. È in corso un cambiamento profondo del nostro rapporto con l’informazione e le nuove tecnologie, uno stravolgimento epocale. Tutto questo ha un nome: guerra cognitiva. Come possiamo difenderci?
Indice degli argomenti:
L’era digitale e ‘La mente sotto assedio’
Sottolinea Giussani: “in un mondo in cui la posta in gioco fondamentale è il controllo delle capacità cognitive e delle rappresentazioni della realtà, la risorsa più importante di un Paese, la sua fonte primaria di robustezza, è costituita dalle menti istruite dei suoi cittadini”.
Dunque, d’ora in poi, molto si giocherà attorno a queste due parole: istruito e cittadino. Entrambe si riferiscono all’esatto contrario della passività del consumatore.
Ci sono diversi modi – spiega l’autore nel libro – per far fronte alla minaccia cognitiva: per esempio, formare cittadini consapevoli in grado di riconoscere le narrazioni manipolatrici, e soprattutto le manipolazioni algoritmiche.
Sviluppare curiosità intellettuale e senso critico
“Per ora, sembra che si stia navigando nella direzione opposta”, fa notare: “se ci limitiamo al tema dell’istruzione – ma si potrebbero dire cose simili sul lavoro, o sulla produzione culturale – da quando l’AI generativa ha invaso la nostra quotidianità, si respira una miscela di entusiasmo e smarrimento”.
Molti studenti, per esempio, usano l’AI per riassumere libri invece di leggerli, o per generare testi che non impareranno a scrivere e non saranno in grado di spiegare, oppure come tutore o aiuto per i compiti a casa.
“Promptare, usare prompt con l’AI, è certamente più semplice che leggere o scrivere. Fare i compiti è più facile con l’ausilio di ChatGPT. Ma se c’è una cosa che la scuola dovrebbe insegnare, è a sviluppare curiosità intellettuale e senso critico; e questo richiede di fare – e pensare – le cose difficili”.
Gli effetti, le conseguenze e i timori
Del resto, come osserva anche il teorico dei media e prorettore della New York University, Clay Shirky, “uno studente che fa copia-incolla per un compito di storia è iscritto a un corso di copia-incolla, non a un corso di storia”.
Gli effetti, le conseguenze e i timori collegati a questi cambiamenti sono diversi, numerosi, non semplici da gestire.

Per esempio, un timore è che fingere – grazie all’AI – di lavorare invece di farlo finisca davvero per inibire lo sviluppo di competenze e spirito critico. Un altro è che l’esternalizzazione dell’apprendimento e del pensiero generi una dipendenza dalla tecnologia.
Un altro rischio è che “non esista più pensiero non assistito”, e ci si abitui “a essere guidati da qualcosa che non ha mai avuto un’esperienza reale, incarnata e olistica della vita”.
Attenzione alla dequalificazione (de-skilling)
Queste preoccupazioni sono piuttosto fondate. La ricerca in merito richiede tempo, ma i primi risultati, pur mostrando un aumento della produttività, suggeriscono anche forme di dequalificazione (in inglese, de-skilling).
Per esempio, uno studio condotto su mille studenti, che si preparavano agli esami di matematica alle scuole superiori, ha mostrato che quelli con accesso all’intelligenza artificiale hanno inizialmente ottenuto risultati nettamente migliori di coloro che non l’avevano. Ma quando poi l’accesso all’AI è stato loro tolto, hanno ottenuto risultati molto inferiori rispetto al gruppo di controllo.
Apprendere, ricordare e pensare
Molte altre analisi hanno già prodotto risultati simili. Ricercatori del Mit (Massachusetts Institute of Technology) di Boston hanno chiesto ai partecipanti alla prova di scrivere quattro saggi nell’arco di quattro mesi con diversi livelli di assistenza tecnologica.
In pratica, hanno scoperto che più i soggetti venivano aiutati dall’AI a scrivere, minore era l’intensità della loro attività cerebrale durante il test, soprattutto nelle aree associate alle funzioni cognitive, all’attenzione e alla creatività.
Il che può tradursi, secondo i ricercatori, in un ‘debito cognitivo’: l’idea che i benefici immediati nell’uso dell’AI in termini di produttività si paghino poi con il deterioramento della capacità di apprendere, ricordare e pensare a lungo termine.
Gli effetti dell’outsourcing cognitivo su noi stessi
“Se ci facciamo attenzione, possiamo notare gli effetti di questo outsourcing cognitivo su noi stessi. Più la tecnologia digitale si propaga nelle nostre vite, più ne diventiamo dipendenti e più diventa difficile pensare e funzionare senza ricorrervi”, fa notare Giussani.

E osserva: “un altro esempio notevole di de-skilling riguarda la nostra capacità di produrre una rappresentazione mentale dello spazio fisico e di orientarci al suo interno. Il puntino blu del Gps che lampeggia sullo schermo del telefono è diventato, per molti, un sostituto della facoltà di orientamento spaziale”.
Imparare a decodificare le nuove tecnologie e l’AI
In questo quadro, si discute molto di come l’AI possa automatizzare numerosi mestieri. Una frase che circola tanto da essere diventata un cliché è che «non sarà l’AI a rubarti il lavoro, ma qualcuno che usa intensamente l’AI».
Alla luce di molte ricerche e verifiche, “si può invece ipotizzare il contrario: le persone che conserveranno le proprie capacità cognitive potrebbero essere avvantaggiate rispetto a quelle che diventeranno troppo dipendenti dalle macchine”.
Quindi, essere ‘istruiti’ di fronte alla minaccia cognitiva non significa soltanto saper usare efficacemente le tecnologie che la strutturano. “Significa soprattutto comprendere come esse vengono create e come funzionano. Imparare a interrogarne i prodotti, a coglierne le implicazioni umane, sociali ed etiche. E ancora, imparare a decodificare le strutture culturali, economiche e di potere in cui queste tecnologie esistono ed evolvono”.



