Il dibattito sull’evoluzione tecnologica si sposta oggi verso una comprensione più granulare di come le macchine interagiscano con le attività umane. Non si tratta di un cambiamento uniforme, ma di una trasformazione che colpisce in modo differente i diversi settori della società.
Durante il convegno «Don’t Look Up: ci stiamo preparando al futuro del lavoro?», organizzato dall’Osservatorio HR Innovation del Politecnico di Milano, Pawel Gmyrek, senior researcher presso l’International Labour Organization (ILO), ha presentato una ricerca approfondita su come l’impatto AI sul lavoro stia ridefinendo i confini tra compiti automatizzabili e attività che beneficeranno di un potenziamento tecnologico. Attraverso l’analisi dei dati e dei modelli di ricerca dell’ILO, emerge un quadro complesso dove la variabile umana, le scelte istituzionali e la struttura occupazionale giocano un ruolo determinante nel definire chi uscirà vincitore da questa nuova ondata di digitalizzazione.
Indice degli argomenti:
La triplice traiettoria dell’evoluzione tecnologica
Per comprendere come le nuove tecnologie influenzino le occupazioni, Gmyrek suggerisce di guardare a tre percorsi storici distinti che continuano a trovare applicazione oggi.
Il primo è quello dell’automazione sostitutiva, esemplificato dai centralinisti telefonici, un’occupazione quasi del tutto scomparsa quando la tecnologia è diventata capace di svolgere i medesimi compiti.
Il secondo percorso riguarda l’evoluzione e l’espansione, come accaduto ai cassieri di banca. Nonostante l’invenzione dei bancomat e la diffusione di internet avessero fatto temere la loro scomparsa, la domanda per questo tipo di occupazione è cresciuta poiché la tecnologia ha reso più economico aprire filiali lontane dalle grandi città e ha creato la necessità di servizi più specializzati. In questo caso, il lavoro è evoluto: i cassieri hanno smesso di gestire denaro fisico per specializzarsi in consulenza finanziaria.
Il terzo scenario è quello della scelta umana, rappresentato dai piloti di aereo. Nonostante sia tecnicamente possibile far volare un aereo senza partecipazione umana, la società sceglie che il velivolo sia pilotato da persone per ragioni di sicurezza e responsabilità.
Secondo Gmyrek, questo elemento di scelta è fondamentale quando si modella l’impatto AI sul lavoro generato dai sistemi generativi. L’ILO utilizza una struttura gerarchica per assegnare una probabilità di automazione ai singoli compiti. Mentre per i lavori d’ufficio, come segretari e dattilografi, la probabilità che l’AI possa svolgere la maggior parte delle mansioni è molto alta, per figure come vigili del fuoco o guardie carcerarie i punteggi di esposizione rimangono estremamente bassi.
Esposizione e vulnerabilità: una geografia della classe media
L’analisi dell’ILO distingue chiaramente tra occupazioni esposte all’automazione e quelle che riceveranno un effetto di potenziamento, definito «augmentation». Le professioni che rientrano in quest’ultima categoria, come gli infermieri, vedranno l’IA gestire compiti documentali, mentre le attività core resteranno nelle mani del personale umano. Tuttavia, i dati indicano che le nazioni più ricche subiranno l’impatto maggiore: nei paesi ad alto reddito, circa il 34% dell’occupazione totale è esposto in qualche modo agli effetti dell’intelligenza artificiale.
Al contrario, nei paesi a basso reddito, la struttura occupazionale meno specializzata sembra offrire una sorta di protezione temporanea, ma nasconde una fragilità strutturale dovuta alla mancanza di risorse e infrastrutture.
Gmyrek sottolinea come l’impatto AI sul lavoro colpisca prevalentemente le famiglie con redditi superiori alla media, ovvero la classe media moderna. Se questi posti di lavoro dovessero scomparire o subire una riduzione salariale a causa degli effetti automatizzanti, si potrebbe assistere a un preoccupante restringimento della classe media a livello globale.
Il divario di genere e il fattore istruzione nell’era dell’AI
Uno dei dati più significativi presentati dal ricercatore dell’ILO riguarda la disparità di genere nell’esposizione tecnologica. Esiste un divario enorme: il 41% dell’occupazione femminile è esposto agli effetti dell’AI, contro il 28% di quella maschile. Questa differenza non è dettata da una natura intrinseca della tecnologia, ma dalla segregazione occupazionale.
Le donne sono maggiormente presenti in ruoli amministrativi e d’ufficio, ovvero quelle mansioni di supporto che l’IA generativa è oggi in grado di gestire con grande efficacia, come l’organizzazione di riunioni, la stesura di verbali o la preparazione di documenti.
Oltre al genere, l’istruzione gioca un ruolo chiave. Gmyrek osserva che questa ondata tecnologica si applica maggiormente ai lavoratori con istruzione terziaria, che costituiscono il gruppo più esposto sia agli effetti di automazione che di potenziamento. Si osserva inoltre un effetto generazionale: i lavoratori più anziani tendono a dichiarare un minor utilizzo dell’AI e spesso faticano maggiormente ad adattarsi, mentre le nuove generazioni entrano nel mercato del lavoro già dotate di queste competenze. Supportare le generazioni senior diventa quindi cruciale per le istituzioni, poiché questi lavoratori detengono una memoria istituzionale e un’esperienza che l’IA può potenziare ma non sostituire integralmente.
Task esperti e dinamiche salariali: il rischio della svalutazione
L’impatto AI sul lavoro non riguarda solo la quantità di posti disponibili, ma anche la struttura dei salari. Gmyrek cita un quadro economico secondo cui l’automazione dei compiti “esperti” può paradossalmente aumentare l’occupazione ma abbassare gli stipendi. Un esempio è quello dei tassisti: con l’introduzione del GPS, il compito esperto di conoscere la città è stato automatizzato, permettendo a chiunque di competere nel settore, aumentando il numero di lavoratori ma riducendo la paga media.
Per illustrare meglio questa dinamica, Gmyrek mette a confronto due professioni:
- meteorologo: il compito di sviluppare modelli computerizzati per il clima è considerato ad alta competenza, ma è anche altamente automatizzabile perché l’AI è eccellente nell’eseguire calcoli matematici.
- impresario funebre: nonostante richieda un’altissima specializzazione manuale e tecnica per la ricostruzione dei corpi, questo lavoro risulta estremamente difficile da gestire per un sistema di intelligenza artificiale.
Nelle economie avanzate, i lavori richiedono già oggi meno compiti manuali di routine e molte più attività analitiche non di routine, come scrivere report o preparare presentazioni, che sono i bersagli principali per i benefici dell’AI.
Qualità del lavoro e centralità della consultazione aziendale
Le stime attuali suggeriscono che gli effetti sulla qualità del lavoro potrebbero essere persino più rilevanti di quelli sulla quantità di impiego. Gmyrek insiste sulla necessità di coinvolgere i lavoratori nel design dei processi tecnologici: «È davvero importante, specialmente a livello aziendale, coinvolgere i lavoratori, dare loro voce in questo tipo di test e progettazione».
Quando la tecnologia viene introdotta senza consultazione, spesso finisce per risolvere problemi inesistenti o immaginati dai dipartimenti IT, trascurando le reali necessità di chi svolge il lavoro quotidianamente. L’introduzione forzata di sistemi di AI può portare a un’intensificazione del ritmo di lavoro. Se non vengono adeguati i parametri di misurazione delle prestazioni, le conseguenze sulla salute e sulla qualità della vita professionale possono essere drammatiche.
Al contrario, le aziende che integrano l’AI costruendo sull’esperienza esistente dei dipendenti possono espandere il valore aggiunto e la produttività complessiva. In definitiva, l’accettazione e l’efficacia della tecnologia dipendono dal fatto che i lavoratori non la percepiscano come una minaccia, ma come un mezzo per creare nuovi servizi e nuovi valori. Le statistiche mostrano infatti che chi riceve formazione e viene consultato tende a utilizzare maggiormente queste soluzioni e desidera farlo con continuità sul posto di lavoro.
FAQ: Intelligenza Artificiale
Quali sono i tipi di intelligenza artificiale?
L’intelligenza artificiale si può classificare in due grandi filoni: l’AI debole e l’AI forte. L’AI debole identifica sistemi tecnologici in grado di simulare alcune funzionalità cognitive dell’uomo senza però raggiungere le reali capacità intellettuali tipiche dell’uomo (programmi matematici di problem-solving per la risoluzione dei problemi o per consentire alle macchine di prendere decisioni). L’AI forte invece si riferisce a “sistemi sapienti” che possono sviluppare una propria intelligenza senza emulare processi di pensiero o capacità cognitive simili all’uomo ma sviluppandone una propria in modo autonomo. Questa distinzione sta alla base della differenza tra Machine learning e Deep learning, due ambiti di studio che rientrano nella più ampia disciplina dell’intelligenza artificiale.
Cos’è l’AGI o Intelligenza Artificiale Generale?
L’AGI (Intelligenza Artificiale Generale), definita anche come AI forte, è un tipo di intelligenza artificiale che si sviluppa in maniera molto ampia, per creare hardware o software in grado di emulare il ragionamento umano. Si differenzia dalle applicazioni di AI tradizionale proprio perché mira a riprodurre abilità cognitive generali, come il ragionamento, la pianificazione, l’adattamento a scenari complessi e la comprensione del linguaggio naturale in maniera dinamica. Non esiste ancora una definizione universalmente accettata, ma in termini ampi può essere descritta come “la capacità di un sistema intelligente di comprendere o apprendere qualsiasi compito intellettuale che un essere umano è in grado di svolgere”. Il raggiungimento di risultati concreti in campo AGI è ancora una chimera alquanto lontana, ma molti ricercatori sono propensi a ritenere che i sistemi AGI probabilmente raggiungeranno l’abilità umana complessiva intorno alla metà del 21° secolo.
Come funziona il Machine Learning?
Il Machine Learning è caratterizzato da sistemi che servono ad “allenare” il software in modo che correggendo gli errori possa apprendere a svolgere autonomamente un compito/attività. Ad esempio, un braccio meccanico supportato dall’AI è in grado di montare un pezzo anche se questo non si trova dove dovrebbe perché l’algoritmo di controllo anziché fornire le coordinate attiva un riconoscimento ottico che cerca il pezzo in tutta l’area che il braccio può raggiungere. E se la macchina o l’uomo che porge i pezzi ripete più volte l’errore, il robot impara che quella è la nuova posizione e va subito a cercare il pezzo lì. Il Machine Learning si sta evolvendo lungo una linea di ricerca basata sull’uso di reti neurali organizzate in più livelli di profondità, detta Deep Learning, che emula la mente umana attraverso modelli di apprendimento ispirati alla struttura ed al funzionamento del nostro cervello.
Cos’è l’intelligenza artificiale generativa?
L’intelligenza artificiale generativa rappresenta una risorsa preziosa per la creazione di prodotti e servizi innovativi. Fino a poco tempo fa, questi modelli erano principalmente utilizzati come strumenti di ricerca, ma grazie all’evoluzione tecnologica e alla crescita esponenziale delle capacità di calcolo, sono diventati parte del quotidiano di persone e aziende. È utile non solo nella creazione di contenuti, ma anche nella simulazione e nell’ottimizzazione di operazioni aziendali complesse. Ad esempio, può identificare nuovi modi per ridurre gli scarti di produzione o per migliorare l’efficienza dei processi. I modelli generativi possono anche proporre nuove “idee” basate sui dati di ingresso, sperimentando nuove configurazioni o metodi di processo che potrebbero non essere stati considerati in precedenza. Esempi di AI generativa includono ChatGPT, un chatbot sviluppato da OpenAI, e DALL-E, un sistema capace di produrre immagini da descrizioni testuali.
Quali sono le principali applicazioni dell’intelligenza artificiale?
L’intelligenza artificiale trova applicazione in numerosi settori. Nel marketing, viene utilizzata per analizzare in real-time grandi moli di dati per la comprensione del “sentiment” e delle esigenze delle persone, fino alla previsione dei comportamenti di acquisto. Nel settore sanitario, l’AI migliora sistemi già in uso da persone con disabilità e aiuta nella diagnosi e cura di tumori e malattie rare, analizzando un bacino infinito di dati a velocità inimmaginabile per l’uomo. Nella sicurezza informatica, l’AI è impiegata per la prevenzione delle frodi attraverso analisi sofisticate che correlano dati, eventi, comportamenti e abitudini. Nella supply chain, ottimizza e gestisce la catena di approvvigionamento e distribuzione connettendo e monitorando tutta la filiera. Nella sicurezza pubblica, analizza dati in tempo reale per migliorare l’efficienza e l’efficacia, prevenendo crimini e gestendo crisi in casi di calamità naturali. Nel settore aziendale, l’AI viene utilizzata per automatizzare compiti, migliorare l’efficienza, prendere decisioni migliori e creare nuovi prodotti e servizi.
Come è nata l’intelligenza artificiale?
L’interesse della comunità scientifica per l’intelligenza artificiale ha inizio da molto lontano: il primo vero progetto di artificial intelligence risale al 1943 quando i due ricercatori Warren McCulloch e Walter Pitt proposero al mondo scientifico il primo neurone artificiale. Seguì poi nel 1949 il libro The Organization of Behaviour di Donald Olding Hebb, grazie al quale vennero analizzati in dettaglio i collegamenti tra i neuroni artificiali ed i modelli complessi del cervello umano. Il termine artificial intelligence parte “ufficialmente” dal matematico statunitense John McCarthy (nel 1956) e con esso il “lancio” dei primi linguaggi di programmazione (Lisp nel 1958 e Prolog nel 1973) specifici per l’AI. Alla fine degli anni ’50 risale il primo modello di rete neurale: il “percettrone”, proposto nel 1958 da Frank Rosenblatt, una rete con uno strato di ingresso e uno di uscita e una regola di apprendimento intermedia basata sull’algoritmo ‘error back-propagation’. La prima svolta importante dal punto di vista tecnologico arriva tra la fine degli anni ’70 e il decennio degli anni ’80 con lo sviluppo delle Gpu che hanno ridotto notevolmente i tempi di addestramento delle reti.
Quali sono i modelli linguistici più avanzati di intelligenza artificiale?
Tra i modelli linguistici più avanzati di intelligenza artificiale troviamo GPT-4o, presentato il 13 maggio 2024, che rappresenta un passo significativo verso un’interazione uomo-computer più naturale e intuitiva. Questo modello rivoluzionario abilita una comunicazione fluida e versatile attraverso la combinazione di testo, audio, immagini e video, riuscendo a riconoscere le emozioni umane e a interagire in maniera naturale. Prima di questo, GPT-4V ha debuttato a ottobre 2023, con una “capacità senza precedenti di elaborare input multimodali interlacciati in modo arbitrario”, potendo contare oggetti, analizzare tabelle e testi, eseguire l’apprendimento nel contesto ed essere condizionato dal codice su input visivi. Altri modelli avanzati includono Google Gemini, rilasciato a maggio 2024, che offre funzionalità avanzate come la generazione di testo, l’estrazione di dati, l’analisi di sentiment, la generazione di immagini e la ricerca di informazioni, e Llama 3.1 di Meta, presentato a luglio 2024, un modello di base che si attesta su 405 miliardi di parametri, addestrato su oltre 15 trilioni di token.
Quali sono i rischi dell’intelligenza artificiale?
L’intelligenza artificiale presenta diversi rischi significativi. Uno dei principali è la sua capacità di amplificare problemi come la discriminazione algoritmica (bias), la sorveglianza di massa e la diffusione di disinformazione. I sistemi di riconoscimento facciale, ad esempio, vengono impiegati da regimi autoritari per monitorare e reprimere i cittadini, sollevando serie preoccupazioni riguardo alla privacy e ai diritti umani. Gli algoritmi possono perpetuare e persino amplificare pregiudizi esistenti, con conseguenze tangibili per individui e comunità vulnerabili. Un altro rischio è la capacità dell’AI di generare e diffondere contenuti falsi o fuorvianti in modo convincente. Deepfake e chatbot sempre più sofisticati possono essere utilizzati per creare notizie false, influenzare l’opinione pubblica e minare la fiducia nelle istituzioni democratiche. Inoltre, l’automazione può portare a perdite di posti di lavoro, in particolare per le mansioni a bassa qualifica, con impatti sproporzionati su determinate fasce demografiche e regioni geografiche. Per affrontare questi rischi, è fondamentale che governi, aziende tecnologiche e società civile collaborino per sviluppare normative e standard etici per l’uso responsabile dell’AI.
Come sta evolvendo il mercato dell’intelligenza artificiale?
Il mercato dell’intelligenza artificiale sta crescendo rapidamente. In Italia, secondo gli ultimi dati dell’Osservatorio Artificial Intelligence del Politecnico di Milano, il mercato delle soluzioni e dei servizi AI nel 2023 ha raggiunto il valore di 760 milioni di euro, facendo registrare un tasso di crescita del 52% nell’ultimo anno, in deciso aumento rispetto al +32% registrato a fine 2022. Ben 6 grandi aziende italiane su 10 (61%) hanno all’attivo, almeno a livello di sperimentazione, un progetto di AI. La maggior parte degli investimenti riguarda soluzioni di analisi e interpretazione testi per la ricerca semantica, la classificazione, la sintesi e la spiegazione di documenti, così come gli agenti conversazionali tradizionali. I progetti di Generative AI pesano, al momento, solo per il 5%, sebbene vi sia un grande interesse intorno a questa tecnologia. A livello globale, secondo l’Artificial Intelligence Index Report 2025 dello Stanford Institute for Human-Centered AI (HAI), la ricerca sull’intelligenza artificiale è guidata dall’Asia, con l’Asia Orientale e il Pacifico che hanno generato il 34,5% del totale delle pubblicazioni scientifiche sull’AI nel 2023, superando l’Europa e l’Asia Centrale (18,2%) e il Nord America (10,3%).
Intelligenza artificiale: cos’è
L’intelligenza artificiale è una branca dell’informatica che si occupa della creazione di sistemi capaci di svolgere compiti che normalmente richiederebbero l’intelligenza umana.
Questi compiti includono:
- riconoscimento vocale
- comprensione del linguaggio naturale
- visione artificiale
- processo decisionale
- traduzione tra lingue
L’IA può essere suddivisa in due categorie principali: IA ristretta (o debole), progettata per compiti specifici, e IA generale (o forte), capace di comprendere, apprendere e applicare la conoscenza in una vasta gamma di contesti.
Come funziona l’IA
L’intelligenza artificiale (AI) è un campo complesso e in rapida evoluzione, con molte sfaccettature diverse. In parole semplici, si tratta di un ramo dell’informatica che mira a creare macchine in grado di simulare l’intelligenza umana. Questo può includere una serie di abilità, come la capacità di apprendere e ragionare, risolvere problemi, prendere decisioni e percepire e interagire con il mondo.
Esistono molti approcci diversi all’IA, ma alcuni degli algoritmi più comuni includono:
- Apprendimento automatico o machine learning :questo tipo di AI consente ai sistemi di imparare da dati senza essere esplicitamente programmati. Può essere utilizzato per attività come il riconoscimento delle immagini, l’elaborazione del linguaggio naturale e la previsione.
- Reti neurali: questi algoritmi sono ispirati al cervello umano e sono in grado di imparare modelli complessi dai dati. Sono spesso utilizzati per attività come il riconoscimento vocale e la traduzione automatica.
- Apprendimento rinforzo: questo tipo di AI consente ai sistemi di apprendere per tentativi ed errori, interagendo con il loro ambiente. Può essere utilizzato per attività come il gioco e la robotica.
L’AI è già utilizzata in una vasta gamma di applicazioni, tra cui:
- Assistenti virtuali: come Siri, Alexa e Google Assistant utilizzano l’IA per comprendere e rispondere ai comandi degli utenti.
- Auto a guida autonoma: i veicoli autonomi utilizzano l’IA per percepire il loro ambiente, prendere decisioni di navigazione ed evitare ostacoli.
- Diagnosi medica: i sistemi di AI possono essere utilizzati per analizzare immagini mediche e aiutare i medici a diagnosticare le malattie.
- Raccomandazioni personalizzate: i siti web di e-commerce e i servizi di streaming utilizzano l’IA per consigliare prodotti o film che potrebbero interessarti.
L’IA è un campo in rapido sviluppo con il potenziale di rivoluzionare molti aspetti della nostra vita. Man mano che la tecnologia continua a evolversi, è probabile che vedremo emergere applicazioni AI ancora più innovative e sorprendenti.
Cosa sono Machine Learning e Deep learning
Il machine learning è una sottocategoria dell’IA che consente alle macchine di imparare dai dati e migliorare le loro prestazioni nel tempo senza essere esplicitamente programmate.
Una forma avanzata di machine learning è il deep learning, che utilizza reti neurali artificiali ispirate alla struttura del cervello umano. Queste reti sono composte da strati di nodi (neuroni) che processano i dati, permettendo al sistema di riconoscere modelli complessi e fare previsioni accurate.
Quali sono le ultime applicazioni dell’Intelligenza Artificiale?
L’intelligenza artificiale (AI) sta evolvendosi rapidamente e nuove applicazioni vengono sviluppate continuamente. Ecco alcuni esempi recenti e degni di nota:
Generazione AI:
- Generazione di testo: l’AI può ora creare testi realistici e creativi, come articoli di notizie, poesie, script e persino codici. Questo viene utilizzato per generare contenuti realistici per siti web, chatbot e assistenti virtuali.
- Generazione di immagini: l’ AI può creare immagini realistiche e originali da testo o da altre immagini. Questo viene utilizzato per creare arte, pubblicità e contenuti personalizzati per i social media.
- Generazione di musica: AI può comporre musica in diversi generi e stili. Questo viene utilizzato per creare musica di sottofondo, brani personalizzati ed esperienze audio immersive.
Applicazioni AI per le aziende:
- Chatbot: basati sull’intelligenza artificiale possono ora gestire conversazioni complesse con i clienti, fornendo supporto e rispondendo a domande. Questo viene utilizzato per migliorare il servizio clienti, aumentare le vendite e ridurre i costi.
- Gestione documenti: l’intelligenza artificiale può automatizzare l’estrazione di dati, la revisione e la classificazione di documenti. Questo viene utilizzato per migliorare l’efficienza aziendale, ridurre i rischi e garantire la conformità.
- Assistenti legali: l’intelligenza artificiale può aiutare gli avvocati con ricerche giuridiche, revisione di contratti e generazione di documenti legali. Questo viene utilizzato per migliorare l’efficienza legale, ridurre i costi e migliorare la qualità del lavoro.
Ottimizzazione AI:
- Assistenti AI: gli assistenti AI possono aiutare a gestire le attività aziendali, programmare appuntamenti e rimanere organizzati.
- Programmare app: l’intelligenza artificiale può aiutare a creare app senza scrivere codice. Questo viene utilizzato per creare app aziendali, app educative e app di gioco.
- Migliorare l’audio: l’AI può migliorare la qualità dell’audio rimuovendo il rumore di sottofondo e migliorando la chiarezza. Questo viene utilizzato per cuffie, auricolari e videochiamate.
Strumenti AI:
- Piattaforme CRM: l’intelligenza artificiale può essere utilizzata per personalizzare le interazioni con i clienti, prevedere le vendite e automatizzare le attività di marketing. Questo aiuta le aziende a migliorare le relazioni con i clienti, aumentare le vendite e aumentare la fidelizzazione.
- Analisti di dati: l’intelligenza artificiale può analizzare grandi quantità di dati per identificare modelli e tendenze. Questo aiuta le aziende a prendere decisioni migliori, migliorare l’efficienza e ridurre i rischi.
- Istruzione: l’intelligenza artificiale può essere utilizzata per personalizzare l’apprendimento, fornire feedback agli studenti e valutare i progressi. Questo aiuta gli studenti a imparare più efficacemente, raggiungere il loro pieno potenziale e prepararsi per il futuro.
Quali sono i rischi e le sfide dell’intelligenza artificiale?
Nonostante i numerosi vantaggi, l’IA presenta anche alcune sfide e rischi. Tra i principali rischi vi sono la perdita di posti di lavoro a causa dell’automazione, la privacy dei dati e la possibilità che gli algoritmi perpetuino pregiudizi esistenti.
È essenziale che lo sviluppo dell’IA sia accompagnato da un’attenta regolamentazione e da un dibattito etico per garantire che i benefici siano equamente distribuiti e che i rischi siano gestiti in modo appropriato. In Europa, l’intelligenza artificiale è stata regolamentata dall’AI Act.
Quali sono le future applicazioni dell’AI?
L’intelligenza artificiale ha il potenziale per trasformare radicalmente vari aspetti della nostra vita, migliorando efficienza, precisione e personalizzazione in numerosi settori:
- Formazione continua: è fondamentale investire nell’educazione continua dei lavoratori per prepararli ai cambiamenti portati dall’IA e garantirne l’occupabilità in un mercato del lavoro in evoluzione.
- Collaborazione macchina-uomo: promuovere un modello di collaborazione tra esseri umani e macchine per sfruttare al meglio le capacità di entrambi, migliorando produttività e innovazione.
- Regolamentazione proattiva: sviluppare e implementare normative che anticipino le sfide poste dall’IA, piuttosto che reagire a posteriori, per garantire uno sviluppo sostenibile e sicuro della tecnologia.
L’intelligenza artificiale è qui per rimanere, e con un approccio ponderato e responsabile, possiamo sfruttarne appieno il potenziale per il bene comune.



