osservatorio polimi

Shadow AI, Mauri (Osservatorio HR Innovation): “Quando l’azienda non governa il fenomeno, si espone a rischi di cybersecurity”



Indirizzo copiato

L’intelligenza artificiale penetra nel mercato occupazionale italiano attraverso l’iniziativa dei singoli dipendenti. Le aziende faticano però a integrare la tecnologia nei processi, rischiando di sprecare i benefici di produttività e l’opportunità di innovare realmente

Pubblicato il 15 mag 2026



AI nel lavoro ai4business
Foto: Shutterstock
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Il mercato professionale si trova oggi ad affrontare una sfida che ricorda la traiettoria incerta dei corpi celesti. Durante il recente convegno «Don’t Look Up: ci stiamo preparando al futuro del lavoro, organizzato a Milano dall’Osservatorio HR Innovation del Politecnico di Milano, è emerso un quadro complesso sulla diffusione dell’AI nel lavoro in Italia.

La direttrice della ricerca, Martina Mauri, ha delineato uno scenario in cui l’entusiasmo dei singoli lavoratori si scontra con una cautela organizzativa che rischia di trasformarsi in immobilismo strategico. Se da un lato la tecnologia corre, dall’altro le direzioni delle risorse umane sembrano non aver ancora pienamente metabolizzato la portata di questa trasformazione, posizionando l’impatto dell’intelligenza artificiale solo in una fascia di priorità medio-bassa per i prossimi dieci anni.

La metafora astronomica: l’AI tra meteora e meteorite

L’approccio delle aziende italiane verso l’AI nel lavoro può essere interpretato attraverso tre diverse immagini astronomiche che Martina Mauri ha utilizzato per descrivere il possibile impatto della tecnologia. Il primo timore è quello del meteorite, ovvero un evento che «impatta sulla Terra e può portare a delle conseguenze negative». In questo caso, la sfida per le organizzazioni è saper gestire l’urto, limitando i danni e trasformando l’impatto in un’opportunità di cambiamento.

Esiste poi il rischio della meteora, caratterizzata da un forte carico di aspettative e comunicazione che però rischia di risolversi in un nulla di fatto: «c’è tanto hype, ma poi alla fine è tutto fumo e niente di concreto».

Infine, la cometa, vista spesso in modo positivo, potrebbe rivelarsi un elemento che illumina il percorso senza mai toccare realmente terra, fallendo nel portare un cambiamento tangibile all’interno delle strutture organizzative.

Mauri sottolinea come il 2026 rappresenti un anno di svolta, poiché, secondo il World Economic Forum, questa tecnologia dovrà finalmente dimostrare di saper generare un valore finanziario tangibile.

Il paradosso dell’adozione spontanea: la crescita della “shadow AI

I dati presentati dall’Osservatorio, basati su un panel di 1.500 lavoratori statisticamente rappresentativi, indicano che l’uso dell’AI nel lavoro è aumentato di 12 punti percentuali rispetto allo scorso anno. Tuttavia, questa diffusione non è guidata da una strategia aziendale coordinata, ma da un’iniziativa individuale che Mauri definisce come un utilizzo spontaneo.

Nello specifico, la ricerca evidenzia che:

  • Il settore ICT, Media & Telco registra la penetrazione più alta, passando dal 44% al 65%.
  • Il settore del Retail mostra invece l’incidenza minore, fermandosi al 31%.
  • La quota di dipendenti che utilizza strumenti di AI non forniti formalmente dall’azienda è salita dal 27% al 34%.
  • Il 51% dei lavoratori dichiara di affiancare o sostituire le soluzioni aziendali con strumenti esterni.

Questa tendenza alla cosiddetta “shadow AI” rappresenta un campanello d’allarme per la sicurezza informatica e la protezione dei dati sensibili. Come spiegato da Martina Mauri, quando l’azienda non governa il fenomeno, non solo si espone a rischi di cybersecurity, ma perde la possibilità di comprendere il reale impatto della tecnologia e di trasformarlo in un aumento strutturale di produttività.

L’orizzonte lontano dell’Agentic organization

Nonostante si parli sempre più frequentemente di Agentic organization, ovvero modelli organizzativi composti da team ibridi umano-macchina, la realtà italiana appare ancora ancorata a modelli tradizionali. Ad oggi, non sono emersi esempi significativi di aziende che abbiano integrato l’AI come un «collega umano» a tutti gli effetti.

Attualmente, l’intelligenza artificiale viene percepita dai lavoratori principalmente come un assistente operativo (50% dei casi) o un supporto per svolgere compiti ripetitivi e noiosi (44%). Solo una minoranza inizia a intravedere sfumature diverse, vedendo la tecnologia come un coach per delineare percorsi di crescita o, in accezione più negativa, come un controllore che valida l’operato umano.

Mauri evidenzia come «l’ownership rimane comunque totalmente ancora umana», poiché è il singolo a decidere cosa e quando delegare alla macchina, spesso senza una vera governance organizzativa.

Produttività ferma: il mistero dei 30 minuti

Uno dei dati più sorprendenti emersi dalla ricerca riguarda l’efficienza. Chi utilizza l’AI nel lavoro dichiara un risparmio medio di tempo pari a 30 minuti al giorno. Il dato critico è che questo valore è rimasto invariato rispetto allo scorso anno, nonostante nel frattempo gli strumenti tecnologici siano diventati molto più potenti e performanti.

Mauri identifica due ragioni principali per questo stallo della produttività. Da un lato, i lavoratori potrebbero non possedere ancora le competenze necessarie per estrarre il massimo valore dai nuovi sistemi. Dall’altro, se l’AI rimane confinata a un uso individuale e non viene inserita in una riprogettazione dei processi, i benefici rimangono limitati al singolo e non si traducono in un vantaggio per l’intera organizzazione.

Ad oggi, infatti, solo il 9% delle aziende gestisce in maniera strutturata il tempo risparmiato dai propri dipendenti. Senza un presidio strategico, questi minuti preziosi rischiano di essere dispersi in attività marginali anziché essere reinvestiti in formazione o sviluppo del business.

Competenze e nuove frontiere: dalla Generative alla Physical AI

Un segnale positivo arriva dalla percezione dei lavoratori riguardo alle proprie capacità. Contrariamente ai timori di una progressiva erosione delle competenze, chi utilizza l’intelligenza artificiale rileva impatti favorevoli: il 45% dei lavoratori ha riscontrato miglioramenti nello sviluppo di nuove abilità e il 41% nella generazione di idee originali. Mauri sottolinea come, per queste persone, sia «migliorata la capacità di apprendere nuovi concetti e competenze e di proporre idee e soluzioni originali».

Mentre il dibattito attuale è dominato dall’AI generativa, legata al linguaggio e alla creazione di contenuti, l’attenzione si sta spostando verso la Physical AI. L’integrazione di modelli intelligenti in sistemi robotici umanoidi è già una realtà nelle fabbriche cinesi e vede le prime sperimentazioni anche in Italia, come nel caso dell’azienda Sapa di Benevento. In futuro, queste tecnologie potrebbero diffondersi anche nel settore Retail per la gestione diretta dell’interazione con il cliente.

Lo shock demografico e il ruolo del capitale tecnologico

L’urgenza di integrare correttamente l’AI nel lavoro è dettata anche da fattori macroeconomici e demografici. L’Italia si trova ad affrontare uno dei più grandi shock della sua storia: con un tasso di natalità di 1,2 figli per donna, si prevede che nel 2040 la popolazione attiva sarà ridotta drasticamente. In questo contesto, Mauri avverte che «il capitale umano dovrà essere affiancato o sostituito dal capitale tecnologico» per mantenere la sostenibilità del mercato del lavoro.

La sfida non è dunque usare l’AI per fare meglio le stesse cose, ma per riprogettare i processi e dedicarsi a compiti nuovi. Il rischio concreto per il Paese non è tanto la sostituzione dell’uomo, quanto l’incapacità delle imprese di far evolvere i propri modelli operativi, restando ancorate a una visione dell’AI come mero strumento di efficientamento dei costi. Solo superando l’adozione elitaria — che oggi vede un forte divario tra grandi aziende innovative e realtà più piccole — l’Italia potrà evitare una polarizzazione socioeconomica e garantire uno sviluppo inclusivo.

In conclusione, come ricordato da Martina Mauri, i dati mostrano che «l’utilizzo dell’AI si sta diffondendo, ma in modo ancora prevalentemente operativo e superficiale». Le direzioni HR sono chiamate a passare da un ruolo di spettatori a quello di orchestratori, governando una trasformazione che è già in atto nelle scrivanie dei dipendenti, ma che attende ancora di entrare nelle strategie dei vertici aziendali.

FAQ: Intelligenza Artificiale

L’intelligenza artificiale si può classificare in due grandi filoni: l’AI debole e l’AI forte. L’AI debole identifica sistemi tecnologici in grado di simulare alcune funzionalità cognitive dell’uomo senza però raggiungere le reali capacità intellettuali tipiche dell’uomo (programmi matematici di problem-solving per la risoluzione dei problemi o per consentire alle macchine di prendere decisioni). L’AI forte invece si riferisce a “sistemi sapienti” che possono sviluppare una propria intelligenza senza emulare processi di pensiero o capacità cognitive simili all’uomo ma sviluppandone una propria in modo autonomo. Questa distinzione sta alla base della differenza tra Machine learning e Deep learning, due ambiti di studio che rientrano nella più ampia disciplina dell’intelligenza artificiale.

L’AGI (Intelligenza Artificiale Generale), definita anche come AI forte, è un tipo di intelligenza artificiale che si sviluppa in maniera molto ampia, per creare hardware o software in grado di emulare il ragionamento umano. Si differenzia dalle applicazioni di AI tradizionale proprio perché mira a riprodurre abilità cognitive generali, come il ragionamento, la pianificazione, l’adattamento a scenari complessi e la comprensione del linguaggio naturale in maniera dinamica. Non esiste ancora una definizione universalmente accettata, ma in termini ampi può essere descritta come “la capacità di un sistema intelligente di comprendere o apprendere qualsiasi compito intellettuale che un essere umano è in grado di svolgere”. Il raggiungimento di risultati concreti in campo AGI è ancora una chimera alquanto lontana, ma molti ricercatori sono propensi a ritenere che i sistemi AGI probabilmente raggiungeranno l’abilità umana complessiva intorno alla metà del 21° secolo.

Il Machine Learning è caratterizzato da sistemi che servono ad “allenare” il software in modo che correggendo gli errori possa apprendere a svolgere autonomamente un compito/attività. Ad esempio, un braccio meccanico supportato dall’AI è in grado di montare un pezzo anche se questo non si trova dove dovrebbe perché l’algoritmo di controllo anziché fornire le coordinate attiva un riconoscimento ottico che cerca il pezzo in tutta l’area che il braccio può raggiungere. E se la macchina o l’uomo che porge i pezzi ripete più volte l’errore, il robot impara che quella è la nuova posizione e va subito a cercare il pezzo lì. Il Machine Learning si sta evolvendo lungo una linea di ricerca basata sull’uso di reti neurali organizzate in più livelli di profondità, detta Deep Learning, che emula la mente umana attraverso modelli di apprendimento ispirati alla struttura ed al funzionamento del nostro cervello.

L’intelligenza artificiale generativa rappresenta una risorsa preziosa per la creazione di prodotti e servizi innovativi. Fino a poco tempo fa, questi modelli erano principalmente utilizzati come strumenti di ricerca, ma grazie all’evoluzione tecnologica e alla crescita esponenziale delle capacità di calcolo, sono diventati parte del quotidiano di persone e aziende. È utile non solo nella creazione di contenuti, ma anche nella simulazione e nell’ottimizzazione di operazioni aziendali complesse. Ad esempio, può identificare nuovi modi per ridurre gli scarti di produzione o per migliorare l’efficienza dei processi. I modelli generativi possono anche proporre nuove “idee” basate sui dati di ingresso, sperimentando nuove configurazioni o metodi di processo che potrebbero non essere stati considerati in precedenza. Esempi di AI generativa includono ChatGPT, un chatbot sviluppato da OpenAI, e DALL-E, un sistema capace di produrre immagini da descrizioni testuali.

L’intelligenza artificiale trova applicazione in numerosi settori. Nel marketing, viene utilizzata per analizzare in real-time grandi moli di dati per la comprensione del “sentiment” e delle esigenze delle persone, fino alla previsione dei comportamenti di acquisto. Nel settore sanitario, l’AI migliora sistemi già in uso da persone con disabilità e aiuta nella diagnosi e cura di tumori e malattie rare, analizzando un bacino infinito di dati a velocità inimmaginabile per l’uomo. Nella sicurezza informatica, l’AI è impiegata per la prevenzione delle frodi attraverso analisi sofisticate che correlano dati, eventi, comportamenti e abitudini. Nella supply chain, ottimizza e gestisce la catena di approvvigionamento e distribuzione connettendo e monitorando tutta la filiera. Nella sicurezza pubblica, analizza dati in tempo reale per migliorare l’efficienza e l’efficacia, prevenendo crimini e gestendo crisi in casi di calamità naturali. Nel settore aziendale, l’AI viene utilizzata per automatizzare compiti, migliorare l’efficienza, prendere decisioni migliori e creare nuovi prodotti e servizi.

L’interesse della comunità scientifica per l’intelligenza artificiale ha inizio da molto lontano: il primo vero progetto di artificial intelligence risale al 1943 quando i due ricercatori Warren McCulloch e Walter Pitt proposero al mondo scientifico il primo neurone artificiale. Seguì poi nel 1949 il libro The Organization of Behaviour di Donald Olding Hebb, grazie al quale vennero analizzati in dettaglio i collegamenti tra i neuroni artificiali ed i modelli complessi del cervello umano. Il termine artificial intelligence parte “ufficialmente” dal matematico statunitense John McCarthy (nel 1956) e con esso il “lancio” dei primi linguaggi di programmazione (Lisp nel 1958 e Prolog nel 1973) specifici per l’AI. Alla fine degli anni ’50 risale il primo modello di rete neurale: il “percettrone”, proposto nel 1958 da Frank Rosenblatt, una rete con uno strato di ingresso e uno di uscita e una regola di apprendimento intermedia basata sull’algoritmo ‘error back-propagation’. La prima svolta importante dal punto di vista tecnologico arriva tra la fine degli anni ’70 e il decennio degli anni ’80 con lo sviluppo delle Gpu che hanno ridotto notevolmente i tempi di addestramento delle reti.

Tra i modelli linguistici più avanzati di intelligenza artificiale troviamo GPT-4o, presentato il 13 maggio 2024, che rappresenta un passo significativo verso un’interazione uomo-computer più naturale e intuitiva. Questo modello rivoluzionario abilita una comunicazione fluida e versatile attraverso la combinazione di testo, audio, immagini e video, riuscendo a riconoscere le emozioni umane e a interagire in maniera naturale. Prima di questo, GPT-4V ha debuttato a ottobre 2023, con una “capacità senza precedenti di elaborare input multimodali interlacciati in modo arbitrario”, potendo contare oggetti, analizzare tabelle e testi, eseguire l’apprendimento nel contesto ed essere condizionato dal codice su input visivi. Altri modelli avanzati includono Google Gemini, rilasciato a maggio 2024, che offre funzionalità avanzate come la generazione di testo, l’estrazione di dati, l’analisi di sentiment, la generazione di immagini e la ricerca di informazioni, e Llama 3.1 di Meta, presentato a luglio 2024, un modello di base che si attesta su 405 miliardi di parametri, addestrato su oltre 15 trilioni di token.

L’intelligenza artificiale presenta diversi rischi significativi. Uno dei principali è la sua capacità di amplificare problemi come la discriminazione algoritmica (bias), la sorveglianza di massa e la diffusione di disinformazione. I sistemi di riconoscimento facciale, ad esempio, vengono impiegati da regimi autoritari per monitorare e reprimere i cittadini, sollevando serie preoccupazioni riguardo alla privacy e ai diritti umani. Gli algoritmi possono perpetuare e persino amplificare pregiudizi esistenti, con conseguenze tangibili per individui e comunità vulnerabili. Un altro rischio è la capacità dell’AI di generare e diffondere contenuti falsi o fuorvianti in modo convincente. Deepfake e chatbot sempre più sofisticati possono essere utilizzati per creare notizie false, influenzare l’opinione pubblica e minare la fiducia nelle istituzioni democratiche. Inoltre, l’automazione può portare a perdite di posti di lavoro, in particolare per le mansioni a bassa qualifica, con impatti sproporzionati su determinate fasce demografiche e regioni geografiche. Per affrontare questi rischi, è fondamentale che governi, aziende tecnologiche e società civile collaborino per sviluppare normative e standard etici per l’uso responsabile dell’AI.

Il mercato dell’intelligenza artificiale sta crescendo rapidamente. In Italia, secondo gli ultimi dati dell’Osservatorio Artificial Intelligence del Politecnico di Milano, il mercato delle soluzioni e dei servizi AI nel 2023 ha raggiunto il valore di 760 milioni di euro, facendo registrare un tasso di crescita del 52% nell’ultimo anno, in deciso aumento rispetto al +32% registrato a fine 2022. Ben 6 grandi aziende italiane su 10 (61%) hanno all’attivo, almeno a livello di sperimentazione, un progetto di AI. La maggior parte degli investimenti riguarda soluzioni di analisi e interpretazione testi per la ricerca semantica, la classificazione, la sintesi e la spiegazione di documenti, così come gli agenti conversazionali tradizionali. I progetti di Generative AI pesano, al momento, solo per il 5%, sebbene vi sia un grande interesse intorno a questa tecnologia. A livello globale, secondo l’Artificial Intelligence Index Report 2025 dello Stanford Institute for Human-Centered AI (HAI), la ricerca sull’intelligenza artificiale è guidata dall’Asia, con l’Asia Orientale e il Pacifico che hanno generato il 34,5% del totale delle pubblicazioni scientifiche sull’AI nel 2023, superando l’Europa e l’Asia Centrale (18,2%) e il Nord America (10,3%).

L’intelligenza artificiale è una branca dell’informatica che si occupa della creazione di sistemi capaci di svolgere compiti che normalmente richiederebbero l’intelligenza umana.

Questi compiti includono:

L’IA può essere suddivisa in due categorie principali: IA ristretta (o debole), progettata per compiti specifici, e IA generale (o forte), capace di comprendere, apprendere e applicare la conoscenza in una vasta gamma di contesti​.

L’intelligenza artificiale (AI) è un campo complesso e in rapida evoluzione, con molte sfaccettature diverse. In parole semplici, si tratta di un ramo dell’informatica che mira a creare macchine in grado di simulare l’intelligenza umana. Questo può includere una serie di abilità, come la capacità di apprendere e ragionare, risolvere problemi, prendere decisioni e percepire e interagire con il mondo.

Esistono molti approcci diversi all’IA, ma alcuni degli algoritmi più comuni includono:

  • Apprendimento automatico o machine learning :questo tipo di AI consente ai sistemi di imparare da dati senza essere esplicitamente programmati. Può essere utilizzato per attività come il riconoscimento delle immagini, l’elaborazione del linguaggio naturale e la previsione.
  • Reti neurali: questi algoritmi sono ispirati al cervello umano e sono in grado di imparare modelli complessi dai dati. Sono spesso utilizzati per attività come il riconoscimento vocale e la traduzione automatica.
  • Apprendimento rinforzo: questo tipo di AI consente ai sistemi di apprendere per tentativi ed errori, interagendo con il loro ambiente. Può essere utilizzato per attività come il gioco e la robotica.

L’AI è già utilizzata in una vasta gamma di applicazioni, tra cui:

  • Assistenti virtuali: come Siri, Alexa e Google Assistant utilizzano l’IA per comprendere e rispondere ai comandi degli utenti.
  • Auto a guida autonoma: i veicoli autonomi utilizzano l’IA per percepire il loro ambiente, prendere decisioni di navigazione ed evitare ostacoli.
  • Diagnosi medica: i sistemi di AI possono essere utilizzati per analizzare immagini mediche e aiutare i medici a diagnosticare le malattie.
  • Raccomandazioni personalizzate: i siti web di e-commerce e i servizi di streaming utilizzano l’IA per consigliare prodotti o film che potrebbero interessarti.

L’IA è un campo in rapido sviluppo con il potenziale di rivoluzionare molti aspetti della nostra vita. Man mano che la tecnologia continua a evolversi, è probabile che vedremo emergere applicazioni AI ancora più innovative e sorprendenti.

Il machine learning è una sottocategoria dell’IA che consente alle macchine di imparare dai dati e migliorare le loro prestazioni nel tempo senza essere esplicitamente programmate.

Una forma avanzata di machine learning è il deep learning, che utilizza reti neurali artificiali ispirate alla struttura del cervello umano. Queste reti sono composte da strati di nodi (neuroni) che processano i dati, permettendo al sistema di riconoscere modelli complessi e fare previsioni accurate​.

L’intelligenza artificiale (AI) sta evolvendosi rapidamente e nuove applicazioni vengono sviluppate continuamente. Ecco alcuni esempi recenti e degni di nota:

Generazione AI:

  • Generazione di testo: l’AI può ora creare testi realistici e creativi, come articoli di notizie, poesie, script e persino codici. Questo viene utilizzato per generare contenuti realistici per siti web, chatbot e assistenti virtuali.
  • Generazione di immagini: l’ AI può creare immagini realistiche e originali da testo o da altre immagini. Questo viene utilizzato per creare arte, pubblicità e contenuti personalizzati per i social media.
  • Generazione di musica: AI può comporre musica in diversi generi e stili. Questo viene utilizzato per creare musica di sottofondo, brani personalizzati ed esperienze audio immersive.

Applicazioni AI per le aziende: 

  • Chatbot: basati sull’intelligenza artificiale possono ora gestire conversazioni complesse con i clienti, fornendo supporto e rispondendo a domande. Questo viene utilizzato per migliorare il servizio clienti, aumentare le vendite e ridurre i costi.
  • Gestione documenti: l’intelligenza artificiale può automatizzare l’estrazione di dati, la revisione e la classificazione di documenti. Questo viene utilizzato per migliorare l’efficienza aziendale, ridurre i rischi e garantire la conformità.
  • Assistenti legali: l’intelligenza artificiale può aiutare gli avvocati con ricerche giuridiche, revisione di contratti e generazione di documenti legali. Questo viene utilizzato per migliorare l’efficienza legale, ridurre i costi e migliorare la qualità del lavoro.

Ottimizzazione AI:

Strumenti AI:

  • Piattaforme CRM: l’intelligenza artificiale può essere utilizzata per personalizzare le interazioni con i clienti, prevedere le vendite e automatizzare le attività di marketing. Questo aiuta le aziende a migliorare le relazioni con i clienti, aumentare le vendite e aumentare la fidelizzazione.
  • Analisti di dati: l’intelligenza artificiale può analizzare grandi quantità di dati per identificare modelli e tendenze. Questo aiuta le aziende a prendere decisioni migliori, migliorare l’efficienza e ridurre i rischi.
  • Istruzione: l’intelligenza artificiale può essere utilizzata per personalizzare l’apprendimento, fornire feedback agli studenti e valutare i progressi. Questo aiuta gli studenti a imparare più efficacemente, raggiungere il loro pieno potenziale e prepararsi per il futuro.

Nonostante i numerosi vantaggi, l’IA presenta anche alcune sfide e rischi. Tra i principali rischi vi sono la perdita di posti di lavoro a causa dell’automazione, la privacy dei dati e la possibilità che gli algoritmi perpetuino pregiudizi esistenti.

È essenziale che lo sviluppo dell’IA sia accompagnato da un’attenta regolamentazione e da un dibattito etico per garantire che i benefici siano equamente distribuiti e che i rischi siano gestiti in modo appropriato​. In Europa, l’intelligenza  artificiale è stata regolamentata dall’AI Act.

L’intelligenza artificiale ha il potenziale per trasformare radicalmente vari aspetti della nostra vita, migliorando efficienza, precisione e personalizzazione in numerosi settori:

  1. Formazione continua: è fondamentale investire nell’educazione continua dei lavoratori per prepararli ai cambiamenti portati dall’IA e garantirne l’occupabilità in un mercato del lavoro in evoluzione.
  2. Collaborazione macchina-uomo: promuovere un modello di collaborazione tra esseri umani e macchine per sfruttare al meglio le capacità di entrambi, migliorando produttività e innovazione.
  3. Regolamentazione proattiva: sviluppare e implementare normative che anticipino le sfide poste dall’IA, piuttosto che reagire a posteriori, per garantire uno sviluppo sostenibile e sicuro della tecnologia.

L’intelligenza artificiale è qui per rimanere, e con un approccio ponderato e responsabile, possiamo sfruttarne appieno il potenziale per il bene comune.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x