analisi

Come avere un’AI che faccia bene al lavoro



Indirizzo copiato

Un report del Brookings–Hamilton Project, firmato da economisti del MIT, sostiene che l’AI può favorire il lavoro solo con incentivi e governance adeguati. Tra rischi di automazione, burnout e sorveglianza, servono regole chiare e politiche pubbliche per promuovere un’AI di “augmentation” che valorizzi competenze, autonomia e qualità

Pubblicato il 4 mar 2026

Alessandro Longo

Direttore AI4business.it e Agenda Digitale



ai pro-lavoratore

Il timore che l’intelligenza artificiale faccia male al lavoro – lo svaluti, lo deprezzi, lo diminuisca non solo in quantità ma in qualità – si concretizza in forme via via più mature. Prima ci si limitava a chiedersi chi rischia il posto di lavoro; adesso la domanda diventa più evoluta: come costruire un’AI che faccia bene al lavoro, ai lavoratori?

Un nuovo paper del gruppo Brookings–Hamilton Project firmato da tre economisti di peso, del Mit, Daron Acemoglu, David Autor e Simon Johnson lo dice chiaramente: l’AI può essere pro-lavoratore, ma non lo diventa da sola. Serve cambiare incentivi e scelte di design, e la responsabilità non è solo della politica. È anche delle singole aziende che decidono obiettivi, dati, processi e governance.

AI, la più potente tecnologia di automazione della storia

Adesso circa metà dei lavoratori statunitensi (52%) secondo Pew Research Center dice di essere preoccupata per l’impatto futuro dell’ia sul lavoro. E il 32% pensa che porterà a meno opportunità per sé, a fronte di una minoranza che si aspetta più opportunità che rischi.

Questa percezione non è “irrazionale”, “luddistica”, come certuni farebbero presto a concludere. Nel paper Brookings gli autori osservano che l’AI è la più potente tecnologia di automazione della storia e, in alcuni casi, è usata dalle aziende esplicitamente per quello scopo. Ma la stessa tecnologia, sostengono, può essere usata per aumentare capacità, qualità e autonomia del lavoro invece di comprimere salari e competenze. Il tema dell’AI augmentation non è nuovo; Autor e Acemoglu lo portano avanti da anni (più compiutamente dal 2023 con il libro Power and Progress). Adesso però, con l’avanzata dell’AI generativa e in particolare ora dell’AI agentica, occorre accelerare.

I casi Block, Amazon e Burger King

La scorsa settimana, Block, una piattaforma di servizi finanziari, ha annunciato che avrebbe licenziato quattromila dipendenti, su un totale di diecimila, con la motivazione che l’intelligenza artificiale avrebbe potuto svolgere il loro lavoro.

Molti esperti dubitano che sia questa la vera motivazione; forse Block è uno di quei casi di aziende che licenzia per motivi più banali (come la necessità di fare profitti e compensare eccesso di assunzioni negli anni passati) ma preferisce citare l’AI, per apparire più innovativa e coprire errori passati. Uno studio odierno della BCE dice che l’impatto dell’AI sul lavoro resta positivo.

Ma la questione è più complessa di così.

Anche nei casi in cui le aziende hanno utilizzato programmi di intelligenza artificiale senza procedere a licenziamenti di massa, questi sono stati spesso utilizzati per sorvegliare e costringere i lavoratori piuttosto che per potenziarli. Amazon ha un programma di monitoraggio dello sviluppo e delle prestazioni dei dipendenti che utilizza nei suoi magazzini e telecamere sempre attive che installa nei suoi veicoli di consegna, che sono due esempi noti.

A fine febbraio, Burger King ha dichiarato che sta testando nuove cuffie alimentate dall’intelligenza artificiale, che possono essere utilizzate, tra le altre cose, per verificare se i suoi addetti al servizio clienti dicono “per favore” e “grazie”.

L’intelligenza artificiale sta rendendo i lavoratori più produttivi, ma potrebbe anche causarne il burn out, secondo un nuovo studio condotto dai ricercatori dell’Università della California a Berkeley, nei settori dell’ingegneria, dei prodotti, del design, della ricerca e delle operazioni.

Tre motivi per l’aumento del carico di lavoro dei dipendenti

Con l’aumento della produttività dei dipendenti, è aumentato anche il carico di lavoro. Tre i motivi.

In primo luogo, la possibilità di utilizzare l’AI per colmare le lacune nelle conoscenze esistenti ha portato i lavoratori ad assumersi responsabilità più ampie e diversificate, come ad esempio i manager che scrivono codice per affrontare problemi che in precedenza avrebbero esternalizzato.

In secondo luogo, la facilità con cui è possibile avviare e portare a termine nuovi compiti ha portato i lavoratori a inserire nuovi incarichi nelle pause tra una riunione e l’altra o tra lavori più impegnativi, che in passato sarebbero state considerate pause o occasioni per chiacchierare con un collega.

Infine, la possibilità di affidare alcuni compiti agli agenti di AI ha portato a un aumento del multitasking, con i lavoratori che avviavano una serie di lavori e passavano da uno all’altro man mano che procedevano.

Sono diverse forme di “degradazione” del lavoro. Magari alcuni a vantaggio (almeno nel breve periodo) delle aziende e dei loro investitori, ma tutti a svantaggio dei lavoratori coinvolti.

“Fare di più in meno tempo”

Ma allora che fare? gli autori del nuovo studio propongono una definizione: è pro-lavoratore una tecnologia che rende più preziose competenze e expertise, perché espande le capacità del lavoratore. Non basta “fare di più in meno tempo”, mantra che si diffonde ora nelle aziende armate di AI. Serve che la persona resti centrale nel ciclo decisionale e che l’AI aumenti ciò che il lavoratore riesce a fare mantenendo senso, agency complessivi.

L’esempio più concreto citato dal report è l’Electrician’s Assistant di Schneider Electric: un assistente basato su large language model che aiuta gli ingegneri a diagnosticare problemi, proporre passaggi iterativi e produrre documentazione. Tra gli effetti riportati: per gli ingegneri che lo usano, il tempo medio per completare i report di manutenzione risulta dimezzato.

L’ingegnere resta nel loop, modifica le raccomandazioni e usa lo strumento per affrontare anche compiti più complessi. Il report svela un’ambivalenza: la stessa dinamica può aumentare l’offerta “effettiva” di persone in grado di svolgere attività tecniche, intensificando competizione fra junior e senior.

Il compito delle politiche pubbliche

Di qui la proposta degli autori: se l’impresa vuole collaborazione, deve chiarire che cosa viene raccolto, per quale scopo, con quali limiti e quale ritorno per chi produce quella conoscenza.

Gli autori sostengono che l’offerta di AI pro-lavoratore è inferiore al potenziale per incentivi distorti: molte imprese guadagnano più facilmente da automazione che da strumenti di “job enhancement”.

È compito delle politiche pubbliche intervenire su questi incentivi, magari con diverse politiche fiscali.

Il rischio di appropriazione

Una sezione del report che parla direttamente alle imprese riguarda il rischio di appropriazione: l’AI viene addestrata su contenuti online ma anche, sempre più spesso, sulle performance degli stessi dipendenti. Gli autori descrivono una dinamica: pochi lavoratori addestrerebbero volontariamente un “apprendista” progettato per rimpiazzarli; eppure questo può succedere quando l’azienda usa l’expertise interna come scorciatoia per costruire automazione. Quest’appropriazione è speculare a quella che autori (di articoli, libri, musica) subiscono dall’AI che si addestra con le loro opere o che le rielabora nelle inferenze.

L’AI non migliora automaticamente le performance

Il report avverte che “fare bene” nella collaborazione uomo-macchina è difficile: l’AI non migliora automaticamente la performance. In alcuni contesti la collaborazione funziona, in altri produce l’effetto opposto, soprattutto quando l’essere umano si affida troppo allo strumento o quando il processo non è disegnato per gestire errori, incertezze e casi limite.

Una meta-analisi pubblicata su Nature Human Behaviour (oltre cento studi sperimentali) valuta che in media le combinazioni uomo-AI rendono meno del migliore tra l’umano o l’AI presi da soli, con perdite particolarmente frequenti nei compiti di decisione.

Allo stesso tempo ci sono casi in cui l’AI supporta davvero il lavoro, soprattutto quando trasferisce buone pratiche e riduce l’attrito nelle attività ripetitive senza togliere controllo a chi lavora.

Lo mostra lo studio “Generative AI at Work” , basato sull’introduzione scaglionata di un assistente generativo in un grande contact center (oltre cinquemila addetti) di una Fortune 500: la produttività aumenta in media e i benefici risultano più forti per i profili meno esperti, con segnali coerenti con un effetto “formativo” (l’assistente aiuta i nuovi arrivati ad avvicinarsi più in fretta agli standard dei migliori).

Ecco: l’AI pro-lavoratore non nasce dal modello, ma da come viene inserita nel processo. Serve chiarezza su chi decide, chi valida, quali margini di autonomia restano alle persone e quali metriche contano (qualità, sicurezza, errori, tempi), non solo il volume di output.

Fiducia, adozione ed etica

Qui torna utile una regola pratica citata spesso da chi guida prodotti e organizzazioni: Hilary Gridley (AI coach) scrive nel suo famoso substack che un team difficilmente abbraccia l’AI se la leadership appare già impaziente di sostituirlo con i robot. È un tema di fiducia e di adozione prima ancora che di etica: se le persone leggono l’AI come un progetto di riduzione organici, collaboreranno poco e useranno gli strumenti in modo difensivo.

Le aziende dovrebbero invece partire da casi d’uso che tolgono attrito (documentazione, ricerca, triage, traduzioni), scrivere nero su bianco ruoli e responsabilità umane (chi firma, chi controlla, chi risponde), e fissare confini chiari su dati e monitoraggio.

In Europa, inoltre, alcune regole spingono nella stessa direzione: l’AI Act prevede che prima di mettere in servizio o usare sul posto di lavoro un sistema di ia ad alto rischio, il datore di lavoro informi i rappresentanti dei lavoratori e i dipendenti interessati. È un obbligo, ma può diventare anche un test di credibilità: informare non basta, serve spiegare obiettivi, limiti e tutele, e dimostrare che l’AI è progettata per aumentare competenza e qualità del lavoro, non solo per comprimere tempi e costi.

La legge italiana sull’AI

Molto vi insiste la legge italiana sull’AI. L’art. 11 stabilisce che l’AI va impiegata per migliorare le condizioni di lavoro e tutelare l’integrità psicofisica dei lavoratori; e che l’uso deve essere sicuro, affidabile, trasparente, rispettare dignità umana e privacy. Sempre l’art. 11 rinvia all’art. 1-bis del d.lgs. 152/1997: in pratica, quando l’azienda usa sistemi decisionali o di monitoraggio automatizzati (e quindi spesso anche AI) per aspetti come assunzione, gestione/cessazione del rapporto, assegnazione di compiti, sorveglianza, valutazione e prestazioni, deve informare il lavoratore.
Nel testo richiamato (riportato nelle note in Gazzetta) l’informativa include elementi come scopi, logica di funzionamento, categorie di dati/parametri, misure di controllo/correzione e anche indicazioni su

L’art. 12 istituisce un Osservatorio presso il ministero del Lavoro per definire una strategia sull’uso dell’AI, monitorare l’impatto sul mercato del lavoro, identificare i settori più esposti e promuovere formazione per lavoratori e datori.

Conclusioni

Norme e politiche industriali di un Paese sono importanti, ma l’esito di questa partita passa molto anche dalle scelte delle singole aziende e dei singoli manager. Finché vedranno l’AI (solo) come risparmio costi, fare più con meno, ci sarà un danno per i lavoratori. E, forse, anche per le aziende stesse, che avranno perso l’occasione per uno sviluppo trasformativo della produttività.

Di certo sarà un danno per l’economia perché, come notano gli economisti del MIT, solo un uso di augmentation tecnologica permette di creare nuovi ecosistemi di business, in grado di favorire crescita (e benessere) economico, sociale per un Paese.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x