analisi

LLM e applicazioni AI: conoscerli per usarli meglio e comprendere la trasformazione in atto



Indirizzo copiato

L’intelligenza artificiale sta trasformando società, economia e processi decisionali, imponendo una riflessione su fiducia, trasparenza e controllo umano. Comprendere il funzionamento tecnico degli LLM e dell’AI agentica è essenziale per evitare affidamenti acritici, governare i rischi e affrontare gli impatti sociali, politici ed economici dell’AI

Pubblicato il 11 mag 2026

Federico Della Bella

Partner P4I – Responsabile Practice Analytics and AI – Adjunct Professor POLIMI Graduate School of Management



fiducia intelligenza artificiale
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Quale fiducia possiamo e dobbiamo avere nei sistemi di intelligenza artificiale? La pervasiva diffusione delle soluzioni basate su generative AI, entrate nell’attività quotidiana di milioni di persone e, ancora di più, il livello di delega accordato a sistemi agentici, in grado di prendere decisioni autonomamente ed eseguire task complessi minimizzando il controllo umano, hanno aperto una nuova fase nel rapporto uomo-macchina.

Le istituzioni e i governi provano a inserire norme e regolamenti, come l’AI Act, per gestire e indirizzare la trasformazione in atto, provando a massimizzare i benefici per la società e minimizzare i rischi. In applicazioni ad alto rischio è prevista la supervisione umana, che continui a mantenere il controllo nelle nostre mani, senza delegare troppo alle macchine.

Accordare una delega significa ovviamente dare fiducia, significa affidarsi. Farlo senza comprensione rappresenta un grande rischio. Perlomeno, è quanto pensa Martin Lueck, una delle figure di riferimento nel campo della finanza e degli investimenti quantitativi, che, in una recente dichiarazione pubblica, ha richiamato gli hedge fund a un utilizzo più consapevole di strumenti basati sull’AI. Si è spinto ad affermare che i fondi di investimento dovrebbero usare solo applicazioni basate su AI di cui comprendono le scelte, interpretando cause ed effetti, evitando modelli a scatola nera, mettendo a rischio gli investimenti e la propria credibilità. Dunque, un invito a evitare l’eccessivo affidamento, acritico e non controllato.

Come possiamo usare, governare e affidarci a sistemi di cui non comprendiamo davvero la natura?

Un principio che dovremmo probabilmente adottare tutti, a prescindere dal nostro ruolo. Per poter scegliere dobbiamo però conoscere e capire in che modo gli LLM e le applicazioni AI prendono decisioni ed eseguono azioni. Il compito non è banale e la nostra capacità di comprensione non è la stessa per tutti gli algoritmi e le soluzioni. Se per alcune tecnologie (i modelli di machine learning definiti shallow, superficiali) è relativamente facile intuire la relazione tra input e output, per altri, le reti neurali ad apprendimento profondo e modelli LLM in particolare, non è certo immediato risalire alle origini delle decisioni.

Un tema, collegato al concetto dell’explainable AI, a cui ha dedicato un articolo Agenda Digitale.

Concentriamoci su quanto possiamo fare come individui che, grazie a una maggiore comprensione del funzionamento tecnico di questi strumenti, possiamo rafforzare la nostra capacità di interpretare i fenomeni in atto: partiamo dalla tecnologia ma con l’obiettivo di avere più chiaro qual è l’impatto dell’AI e dell’agentic AI in particolare sulle nostre vite e nelle nostre società.

Il tema della comprensione dei modelli e degli impatti sulla società, infatti, non è solo un problema ingegneristico, ma una questione economica e politica.

La prima domanda è come possiamo usare, governare e affidarci a sistemi di cui non comprendiamo davvero la natura. Come possiamo prendere decisioni libere e consapevoli senza capire gli impatti nelle nostre economie e sul nostro quotidiano, dal lavoro alla cultura, dai rapporti sociali alla conoscenza.

Non si tratta di questioni filosofiche, astratte e teoriche. Come si vede, in ambiti ad alta responsabilità, come quello finanziario, alcuni operatori sostengono che si debba conoscere il funzionamento interno degli strumenti per poter utilizzare le indicazioni e i suggerimenti forniti dai modelli, rifiutando a priori quelli che provengono da scatole nere non spiegabili. Non possiamo accontentarci della performance finale, dobbiamo capire il processo.

La crescente diffusione di sistemi di AI nei processi decisionali, nei prodotti e nei servizi rende la questione sempre più urgente. Per affrontarla, proverò a distinguere due livelli strettamente connessi: quello tecnico, che determina il funzionamento e i limiti dei sistemi, e quello economico e politico, da cui discendono le scelte di utilizzo, regolazione e governance e in definitiva l’impatto sulle nostre vite.

Capire come funzionano le applicazioni che usano l’AI per essere liberi di decidere

È convinzione ormai generale che l’AI è una general purpose technology (GPT), ovvero “una tecnologia caratterizzata da pervasività, potenziale intrinseco di miglioramento tecnico e complementarità innovative, che danno origine a rendimenti di scala crescenti”.

Una tecnologia paragonata, per impatti e capacità trasformativa, alla stampa, all’elettricità, a internet, al web. La prima cosa che dobbiamo fare è dunque capire le implicazioni che ha questo sulla società e sull’economia.

Per una GPT (General Purpose Technology) non possiamo, ad esempio, valutare i ritorni degli investimenti guardando solo alla singola circoscritta applicazione e usando ROI di breve periodo per prendere decisioni strategiche rispetto alla scelta non rinviabile di integrare l’AI nei propri processi decisionali e operativi e tenerne conto anche nella costruzione dell’organizzazione del presente e del futuro.

Comprendere cos’è un chatbot

Comprendere cosa è un chatbot come ChatGPT o come Claude è necessario quando questi entrano nella vita di tutti noi e a loro ci affidiamo per prendere decisioni o anche solo per informarci. Ad esempio, comprendere come sono fatti gli strumenti basati su AI generativa, è utile a capire i rischi di “camera dell’eco”, ovvero di non vedere la tendenza di questi strumenti ad andare dove li vogliamo portare. Una tendenza alla compiacenza e alla rassicurazione che dipende dal modo in cui sono stati creati.

La questione di fondo è che i modelli LLM, che forniscono ad applicazioni come Claude di Anthropic la capacità di interpretare e creare contenuti in linguaggio naturale, sono delle reti neurali artificiali.

Le reti neurali sono strutture matematiche che non possono avere alcun tipo di coscienza: non hanno cognizione di nulla, non sanno ad esempio cosa sia il mare, non hanno un’idea originale della vita, della morte, della religione, neppure di sé stesse.

Tuttalpiù, possono riprodurre i contenuti che nel contesto sembrano più plausibili, coerenti con i pattern appresi durante l’addestramento. In questo senso, quando interroghiamo un chatbot, lo influenziamo, nel tipo e nel tono delle risposte che ci darà, con le nostre domande, il nostro lessico. È, in parte almeno, una camera dell’eco.

Camera dell’eco, cos’è

Scendendo nel tecnico, una qualche premessa è necessaria a capire davvero il fenomeno della camera dell’eco, una rete neurale è costituita da una composizione di funzioni matematiche che ricevono in input dei dati, strutturati o non strutturati e rappresentati in forma numerica di scalari, vettori, matrici, tensori e li trasformano in un output (una predizione, un contenuto, una riorganizzazione dei dati stessi o una loro diversa rappresentazione, ecc.), tramite una sequenza di complesse operazioni matematiche.

Un modello di machine learning vuoto, ovvero prima del training, è, semplificando, una funzione i cui parametri sono ancora generici e possono rappresentare un’ampia famiglia di funzioni possibili.

È attraverso l’esposizione a tanti casi ed esempi che questi parametri assumono il valore utile alla minimizzazione dell’errore di predizione. Per capirci, prendiamo uno dei modelli più banali: un modello di regressione lineare semplice, in cui si stima una variabile target utilizzando il valore di un singola variabile di input, ovvero di una singola caratteristica nota di un fenomeno.

Un esempio pratico

Si prenda ad esempio un predittore che permetta a un gelataio di stimare la quantità di gelato da preparare ogni giorno, usando come unica feature la temperatura prevista: ci si aspetta che, all’ingrosso, più è alta la temperatura, più alta la domanda di gelato (e dunque la necessità di produzione). Il modello predittivo deve aiutare il gelataio a decidere la quantità di gelato da produrre, sulla base della temperatura attesa. Tale predittore è costituito da una semplice funzione che lega direttamente la temperatura (input, variabile indipendente) con l’output (la quantità di gelato da produrre, variabile dipendente). Se si definisce il target, ovvero i chili di gelato da produrre indicandola con y e come variabile di input la temperatura atmosferica del giorno, indicandola con X, si può costruire una ipotetica legge che lega linearmente la quantità di gelato alla temperatura, tramite una funzione del tipo y = f(X) = mX + q.

In un piano cartesiano, questa funzione rappresenta una retta con inclinazione “m” e con punto di intersezione q con l’asse verticale. I parametri m e q all’inizio sono generici: la relazione tra input (temperatura) e target (la quantità di gelato) è ancora da determinare; l’equazione generica della retta contiene in sé tutte le rette possibili, in cui la relazione tra y e X sia lineare. È proprio il training (l’allenamento), ovvero l’esposizione del modello a tante coppie feature-target a determinare quali sono i valori di m e q che minimizzano l’errore di predizione, lo scarto quadratico medio che si ottiene confrontando la domanda di gelato storicamente misurata con quella che si sarebbe stimata partendo dalla temperatura.

Il modello allenato avrà un valore di m e un valore di q specifici che potranno essere usati per la predizione. Al netto di un livello di complessità matematica e concettuale totalmente differente, una rete neurale funziona in maniera concettualmente (anche se non matematicamente) comparabile, pur introducendo non linearità non presenti nel modello semplificato introdotto sopra e componendo molteplici trasformazioni. All’inizio, ovvero prima di essere allenata, la rete ha tutti i parametri (i pesi) inizializzati, tipicamente in modo casuale.

Le reti neurali, come tutti i modelli di machine learning, “apprendono” nel senso che, attraverso i dati di input, regolano i propri parametri per minimizzare l’errore di predizione.

I modelli GPT (Generative Pre-trained Transformers)

I modelli GPT (Generative Pre-trained Transformers) sono delle reti neurali particolari, in quanto pre-addestrate su un grande numero di dati di input e caratterizzate da miliardi di parametri appresi durante questa fase. È grazie a questo pre-addestramento che possiamo dialogare con applicazioni basate sugli LLM, che presentano ab origine una capacità conversazionale un tempo impossibile con le reti neurali di generazione precedente.

La recente diffusione di modelli come ChatGPT o Claude è legata proprio alla combinazione di questo pre-addestramento su larga scala con architetture avanzate e tecniche di allineamento, che permettono al modello di generare risposte coerenti e utili. In questo senso, i modelli acquisiscono una forma di “comprensione” operativa del linguaggio, derivata dai contenuti a cui sono stati esposti nella fase di pre-training.

Gli stessi modelli possono essere ulteriormente specializzati attraverso il “fine-tuning”, ovvero l’esposizione a contenuti e obiettivi specifici, che consente di adattarne il comportamento a contesti o esigenze particolari.

I modelli Transformer

Il funzionamento dei modelli Transformer include una componente di stocasticità controllata, legata al fatto che il modello genera le risposte campionando da una distribuzione di probabilità sui possibili token successivi. Questo elemento, alla base della loro flessibilità espressiva, è anche origine di alcuni problemi e di altrettanti dibattiti.

Secondo alcuni studiosi tra cui Joshua Bengio questo è uno degli aspetti più problematici e controversi. Infatti, la straordinaria capacità linguistica è data dalla capacità dei modelli di prevedere con incredibile affidabilità il contenuto più probabile dato il contesto della domanda. L’incredibile dimensione di queste reti, costituite da miliardi di parametri, permette di prevedere questi risultati con alta plausibilità linguistica, ma sensibilità elevata a piccole variazioni del prompt.

In pratica, la risposta è spesso corretta e quasi sempre plausibile, ma a volte errata e comunque poco prevedibile: una fluttuazione piccola nel comando porta a un risultato anche completamento diverso.

Comprendere almeno a questo livello la dimensione tecnica è necessario anche all’utente casuale, poiché permette alle persone di gestire in maniera consapevole la relazione con questi strumenti, relativizzando e pesando il valore e la validità delle risposte.

fiducia intelligenza artificiale
Foto Shuttertstock AI4Business

La trasparenza dell’AI

Un altro aspetto molto rilevante è quello della trasparenza: con modelli di apprendimento profondo la presenza di una componente probabilistica rende più difficile tracciare e motivare le risposte, ovvero comprendere perché il sistema abbia preso una decisione specifica. Se pensiamo alle risposte ottenute da un singolo prompt potremmo riuscire anche intuire il peso delle singole parole o spezzoni di frasi inseriti (unità informative o token) nel generare la risposta.

Se però inseriamo questi modelli in architetture complesse, in workflow articolati con componenti decisionali e agentiche rischiamo davvero di perdere la tracciabilità delle decisioni, difficilmente tracciabili e auditabili.

L’AI Act è in questo vincolante, obbligando a criteri di trasparenza e tracciabilità gli sviluppatori e gli utilizzatori di sistemi basati su AI.

I bias

Un altro tema molto rilevante, che discende direttamente dal modello, è quello del pregiudizio (bias), ovvero il rischio che, essendo stato allenato su dati con determinate caratteristiche e ulteriormente influenzato da scelte di design, processi di fine-tuning e meccanismi di allineamento, il modello tenda a riflettere anche questo sistema di valori. Con grande rischio di rafforzare pregiudizi, discriminazioni e pensieri dominanti. Molto serio anche il problema delle allucinazioni: essendo stati progettati per dare sempre una risposta, i modelli tendono, anche quando non sanno veramente la risposta a darne una plausibile, nel caso inventando, ovvero dando la risposta statisticamente più probabile; risposta che in molti casi appare verosimile, anche quando non vera.

Tra i tanti, c’è un altro aspetto fondamentale che occorre ricordare, quando usiamo uno strumento come Claude o ChatGPT, non stiamo interagendo con un LLM “libero”, un modello di AI “puro”, ma con un programma che, alle componenti allenate e statisticamente determinate dai dati di training e dai prompt, affianca componenti hard-coded, ovvero risposte fortemente vincolate da policy e sistemi di controllo progettati dai programmatori del chatbot). Si tratta di livelli di controllo, di indirizzo, filtri di sicurezza in entrata e in uscita (guardrails) che evitano che i chatbot possano dare indicazioni controverse, come realizzare un attentato o commettere atti di violenza, oppure ad assumere toni razzisti, misogini, violenti. Con grave danno reputazionale (e a volte anche legale) per chi ha realizzato o commercializzato l’applicazione.

Qualcosa di simile capitò qualche anno fa, in era pre-ChatGPT, quando Tay, il bot di Microsoft iniziò a dare risposte misogine e razziste, istigato dai prompt degli utenti.

Per evitare questi incidenti alcune domande ricevono automaticamente risposte deterministiche, mentre in uscita i contenuti più controversi sono indirizzati, depurati e sterilizzati. Si possono fare diversi esperimenti, inserendo domande o contenuti sensibili e controversi. In questi casi, lo strumento tende a eludere risposte dirette e troppo radicali. Un comportamento che riduce il rischio di offendere gruppi sociali, culture, religioni, etnie, oppure di prendere posizioni troppo radicali dal punto di vista politico, oppure infine, di fornire suggerimenti e consigli su temi controversi e violenti.

Anche se i bot sembrano empatizzare e dialogare come se fossero umani, non lo sono e non possiedono alcuna coscienza segreta, non hanno nessuna sensibilità nascosta, non sono un essere senziente. Forniscono, rispetto alle domande, risposte statisticamente plausibili, indicazioni condizionate da linee di indirizzo esplicitamente codificate che determinano un profilo coerente con quanto richiesto dall’utente, filtrato da alcuni guardrails e indirizzi che, su temi controversi e delicati, indirizzi verso risposte ritenute dai programmatori più neutre e accettabili possibile. In questo senso, risentono, fortemente, del pensiero di chi progetta le applicazioni, non solo di come è fatto il modello sottostante.

La conoscenza tecnica permette di comprendere quali sono le caratteristiche che invitano a mantenere uno spirito critico molto elevato durante l’utilizzo. È comprensibile provare meraviglia, stupore e ammirazione per gli straordinari strumenti che siamo riusciti, come umanità, a creare. Occorre ricordare che si tratta di sistemi ingegneristici che, come sostiene Luciano Floridi, sono in grado di realizzare output e risultati simili a quelli che avrebbero generato le persone, ma adottando un proprio processo, distinto da quello umano. Artificiale, appunto. Non senziente.

Conoscere la struttura tecnica dei modelli e delle applicazioni che incorporano l’AI è fondamentale anche per far discendere da questa una teoria e una prassi che permetta di interpretare e di agire.

Gli effetti della tecnologia sulla società

Il secondo macro-tema è senz’altro quello economico, giuridico, in definitiva sociale e politico. Una considerazione di natura sociale che emerge dalla conoscenza della tecnicalità con cui questi strumenti offrono risposte è quello dell’eccessivo affidamento, con impatti sulla formazione, sull’indipendenza, sulla salute delle persone, specialmente delle fasce più fragili della popolazione.

Un altro tema di tipo giuridico e politico collegato al modo in cui sono stati progettati gli LLM e dunque realizzati gli applicativi che li incorporano è quello del copyright: i contenuti su cui sono allenati i modelli di AI sono stati creati con il lavoro, la conoscenza, la fatica di persone in carne e ossa, oltre che con gli investimenti di altre imprese, editori in primis. Il diritto a essere compensati per il proprio lavoro e per le opere dell’ingegno è in questo caso oggetto di forte controversia giuridica.

Anche le implicazioni politiche economiche e sociali non sono irrilevanti. L’AI generativa è uno dei fattori che sta contribuendo ad approfondire la polarizzazione della società e del pianeta, agendo sia a livello di relazioni internazionali, sia all’interno dei singoli stati. I modelli LLM alla base dell’ultima generazione di chatbot richiedono potenze computazionali e di storage, e dunque risorse finanziarie, nelle disponibilità di un pugno di società, in pochissimi Paesi, Stati Uniti e Cina in testa.

L’Europa ha, fino a ora, poche aziende competitive, tra cui la capofila e più nota è la francese Mistral, e in grado di produrre un modello concorrenziale con quelli della Silicon Valley o provenienti dalla Cina. Africa e Sud America sono totalmente escluse da questa competizione. Se, come molti osservatori ritengono, chi controllerà l’AI controllerà la conoscenza e governerà da una posizione di forza le catene del valore globale, stiamo assistendo a qualcosa tra il ridisegno dell’ordine mondiale, che assomiglia a un’ancora più marcata corsa a due, Cina – Stati Uniti.

Nello scenario internazionale cambiano, o si cristallizzano e consolidano ancora di più, i rapporti di forza. A livello nazionale, tra le imprese e nella società si assiste a una divisione ancora più netta tra vincitori e vinti, che promette di espellere dal mercato imprese e lavoratori non sufficientemente rapidi a riadattarsi. Una divisione sempre più netta tra “vincitori” e “vinti”.

Alcune stime, prefigurano una disoccupazione di massa di proporzioni mai viste, anche in Europa, anche nei paesi ricchi e soprattutto tra i colletti bianchi, tra le classi che hanno studiato. Se l’investimento, di tempo ed economico, per la formazione si dimostrasse a ritorno nullo o negativo, si sta formando un esercito di scontenti, iper-scolarizzati e proletarizzati. Una potenziale bomba per l’assetto democratico e liberale delle nostre società.

L’AI da fonte di liberazione per le persone rischia di diventare la base di un nuovo sfruttamento

In un quadro di tensioni sempre più forti tra i Paesi, mentre spuntano segnali di reshoring e si discute di sovranità delle tecnologie e dell’AI, ovvero il riportare a casa sui propri sistemi proprietari (e anche geograficamente) le infrastrutture di storage e di computazione, le istituzioni internazionali e nazionali stanno cercando politiche e risposte, certamente non facili da trovare.  Anche la polarizzazione economica interna ai singoli stati è un problema: chi ha in mano, conosce e applica strumenti basati su AI, o società tutte nuove basate su strutture e assetti nativamente AI-based avranno un vantaggio notevole, in termini di agilità e rapidità delle decisioni.

La distruzione creativa innescata dall’AI e di schumpeteriana memoria può davvero riallocare le risorse in maniera diversa e costruire una realtà nuova. Potrà certamente essere anche una società migliore dell’attuale, tuttavia, la transizione non sarà indolore. Molte persone perderanno il lavoro, alcuni si arricchiranno e altri diventeranno più deboli e fragili. È diverso trovarsi in questa rivoluzione all’inizio, a metà o alla fine della propria traiettoria di vita e di lavoro. Gli umani, che hanno uno spettro di vita tutto sommato limitato, si adattano con fatica a cambiamenti bruschi e radicali. Occorre accompagnare e smussare le asperità di questa trasformazione.

Non possiamo, d’altro canto, non vedere alcuni aspetti controversi. Ad esempio, il fatto che è stata l’intelligenza collettiva delle persone che ha dato un contributo straordinario alla creazione di sistemi in cui i profitti sono di pochissimi. Alla base di innovazioni straordinarie come gli LLM ci sono investimenti e risorse pubbliche, dati open, servizi e contenuti realizzate da altre imprese, ci sono il web, la rete, la connettività, lo storage, ci sono i nostri dati e contenuti usati per addestrare i modelli, ci sono utenti e lavoratori che insegnano alle macchine a fare il proprio lavoro per vederselo poi togliere dalle macchine stesse. C’è, in pratica, uno spostamento di ricchezza dai molti, che creano o abilitano, ai pochi, che hanno costruito modelli ingegneristici in grado di rendere profittevoli questi input, senza pagarli a chi li ha realizzati.

Grazie, o per meglio dire a causa, della natura intrinseca delle tecnologie digitali e dell’AI, che sono piattaforme e risentono positivamente dell’effetto rete, ovvero della crescita di valore quante più persone li usano, si generano economie di scala un tempo incredibili che generano nuovi monopoli e posizioni dominanti così consolidate da rappresentare un limite alla libera concorrenza stessa, con un effetto negativo sia rispetto ai diritti delle persone, sia rispetto al potenziale regressivo e di freno all’innovazione che i monopoli tendono ad avere.

Si potrebbe continuare all’infinito: ogni giorno le tecnologie si evolvono, il mercato si muove rapidissimo, la legislazione e la politica provano a seguire, ma la velocità e la concreta possibilità delle persone di riconvertirsi, di imparare permanentemente, di riciclarsi in ruoli nuovi si scontra con la finitezza delle risorse personali. Rimane il fatto che la distruzione creatrice del capitalismo trainata dalla discontinuità tecnologica crea nel breve e medio periodo fratture nella società e sconvolgimenti nella vita delle persone di cui la politica e le istituzioni si devono occupare con urgenza e competenza.

Conclusione

Capire oggi come funzionano tecnicamente le macchine significa dunque sia agire più consapevolmente nell’utilizzo personale, sia comprendere i meccanismi economici e sociali alla base della trasformazione delle nostre società, delle nostre professioni, in definitiva, della nostra vita.

Bibliografia

  1. Quant pioneer Martin Lueck warns against handing over trading to AI”, Financial Times, 23 aprile 2026; URL: https://www.ft.com/content/48afd7b9-43b7-4776-8b65-7f5bb2f97c3a?syn-25a6b1a6=1
  2. Unione Europea. (2024). Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, relativo a norme armonizzate sull’intelligenza artificiale… Gazzetta ufficiale dell’Unione europea, L 2024/1689
  3. Bresnahan, T. F., & Trajtenberg, M. (1992). General Purpose Technologies “Engines of Growth?” NBER Working Paper 4148
  4. Bresnahan, T. F., & Trajtenberg, M. (1995). General purpose technologies “Engines of growth”? Journal of Econometrics
  5. Trajtenberg, M. (2018). AI as the next GPT: a Political-Economy Perspective. NBER Working Paper 24245
  6. Gaurav Goswami et al., AI Echo Chambers: How Algorithms Shape Reality, Influence Democracy, and Fuel Misinformation, 2025,
  7. Fang Fang Lee, “What is a neural network?”, IBM (https://www.ibm.com/think/topics/neural-networks)
  8. Luciano Floridi, Etica dell’intelligenza artificiale, Raffaello Cortina Editore, 2022
guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x