applicazioni

I limiti dell’AI nella modernizzazione applicativa: quando l’automazione non basta



Indirizzo copiato

Quando un’organizzazione si affida all’AI nella trasformazione dei propri applicativi, scopre presto che l’automazione totale non è realistica. I limiti dell’AI nelle attività di refactoring, ottimizzazione e migrazione emergono proprio nei casi più complessi. Serve un’alleanza con la software intelligence per preservare controllo, trasparenza e qualità

Pubblicato il 24 nov 2025



limiti_dell_ai_ai4business

L’intelligenza artificiale è diventata la protagonista di ogni conversazione sull’innovazione, ma la sua applicazione nei processi di modernizzazione del software rivela confini tecnici e logici che non possono essere ignorati. Michele Slocovich, solution design director di Cast Italia, ha affrontato questo nodo cruciale in occasione del convegno organizzato dall’Osservatorio Cloud Transformation del Politecnico di Milano, sottolineando come l’AI, pur rappresentando una straordinaria leva di accelerazione, resti uno strumento fallibile, bisognoso di guida, controllo e consapevolezza.

«L’AI è un sistema di autocompletamento molto carino, molto evoluto nel fare l’autocompletamento», osserva Slocovich. Un modo per ridimensionare la retorica dell’automazione totale: dietro la capacità di generare codice, testi o immagini si nasconde una logica statistica, non cognitiva. L’AI completa sulla base di una serie di esempi, ma la domanda centrale resta: da dove provengono quegli esempi?

Il dataset che non c’è: un limite strutturale dell’AI

Per Slocovich, il primo vero limite dell’AI risiede nel suo stesso apprendimento. Ogni modello generativo costruisce risposte sulla base dei dati che lo alimentano. Ma se i dataset di riferimento sono ricchi di codice open source, di esempi standard o di ambienti di sviluppo generici, mancano invece esperienze di modernizzazione applicativa complesse, tipiche dei sistemi enterprise.

«Quando si parla con un’AI – spiega – bisogna chiedersi sempre: qual è il tuo dataset di riferimento? Da dove trai i tuoi esempi?» Nel campo della modernizzazione enterprise e cloud, non esiste oggi un corpus strutturato di dati su cui l’AI possa imparare realmente a gestire la complessità dei sistemi critici. Questo significa che, se può essere efficace nel generare codice ex novo, l’intelligenza artificiale incontra limiti precisi quando si tratta di trasformare e ottimizzare applicazioni esistenti.

È qui che emergono i problemi legati all’affidabilità e alla ripetibilità dei risultati. I modelli di AI generativa operano su base probabilistica: possono fornire risposte diverse a parità di input, perché l’elaborazione non è deterministica. La conseguenza è che non si può parlare di automazione pienamente industrializzabile in un contesto in cui il software deve rispondere a criteri di coerenza, sicurezza e tracciabilità.

L’illusione dell’automazione totale

Nel dibattito sull’intelligenza artificiale, l’idea di una sostituzione completa dell’uomo da parte della macchina è ancora diffusa, ma i dati dimostrano il contrario. Secondo benchmark internazionali recenti, come il W&I benchmark, le migliori piattaforme AI – siano esse agentiche o code-oriented – riescono a automatizzare fino al 70% delle attività di sviluppo o refactoring del codice.

Resta però quel 30% che non può essere gestito in autonomia: non si tratta di una semplice percentuale residua, ma del punto in cui entra in gioco la componente più complessa del software: le eccezioni, le dipendenze, la logica di business. È lì che la competenza umana diventa insostituibile.

Slocovich chiarisce che l’AI, per sua natura, genera errori, e lo fa in modo non prevedibile. Anche con un tasso di successo elevato, non è possibile garantire che l’output sia ripetibile o esente da difetti. «La Generative AI genera errori, e non è prevedibile al 100%», ricorda, sottolineando la necessità di mantenere sempre gli “human in the loop”, professionisti che supervisionano, correggono e interpretano i risultati prodotti dalle macchine.

Senza un presidio costante, la promessa di un’automazione totale rischia di diventare un meccanismo stocastico, capace di accelerare ma non di garantire qualità o affidabilità nel lungo periodo.

Superare i limiti dell’AI con la software intelligence

Se l’AI non può essere lasciata sola, serve un sistema capace di darle direzione, struttura e criteri di validità. È qui che entra in gioco la software intelligence, che Slocovich definisce come una sorta di “grounding”, un insieme di regole e istruzioni deterministiche che fungono da bussola per la componente generativa.

«Bisogna veicolare la forza dell’AI, come fosse un piccolo genio creativo, ma un bambino che prova tutte le cose. Allora lo si guida con un set deterministico di istruzioni», spiega. La software intelligence ha il compito di distillare regole e caratteristiche che servono alla governance del software, aiutando le organizzazioni a comprendere e monitorare il comportamento dell’AI.

Questo approccio permette di tradurre la complessità del codice in un linguaggio leggibile, riducendo l’onere cognitivo per gli sviluppatori. Leggere codice generato da altri – osserva Slocovich – è spesso più difficile che scriverne di nuovo. Ma se si dispone di strumenti in grado di interpretare, mappare e controllare le manipolazioni del codice operate dall’AI, l’intervento umano diventa più mirato ed efficace.

In questo modo, la modernizzazione non è più un salto nel buio, ma un processo governato e trasparente. L’AI diventa uno strumento potenziato, non un sostituto, capace di operare con maggiore affidabilità perché inserita in un contesto di regole precise.

I limiti dell’AI come leva per la maturità cloud

Riconoscere i limiti dell’AI non significa arrestarne lo sviluppo, ma imparare a integrarla nei processi aziendali in modo maturo e consapevole. Per Slocovich, questo passaggio coincide con un’evoluzione culturale: la conquista di una vera e propria cloud maturity.

Dopo anni in cui il cloud era visto come un semplice obiettivo tecnologico, oggi le imprese iniziano a chiedersi “perché vado in cloud?”. La risposta, secondo Slocovich, non sta nella migrazione in sé, ma nella capacità di ottimizzare i workload applicativi e trarre da essi vantaggio competitivo.

«Finalmente si parla di cloud maturity», afferma. «All’interno di questa consapevolezza c’è la domanda: ma perché vado in cloud? Vado in cloud perché ho il mio workload applicativo, lo devo ottimizzare. Lì c’è il mio vero vantaggio competitivo».

In questa prospettiva, la combinazione tra software intelligence e AI generativa diventa un fattore abilitante per affrontare le applicazioni legacy, spesso considerate troppo rischiose o complesse da modernizzare. L’AI, guidata da principi deterministici, può sbloccare situazioni di stallo, accelerando l’evoluzione dei sistemi più critici senza comprometterne l’affidabilità.

Un’intelligenza artificiale da educare, non da idolatrare

Il contributo di Slocovich riporta il discorso sull’AI a un livello di realismo industriale. I limiti dell’AI non sono un fallimento, ma una condizione naturale di ogni tecnologia che si misura con la complessità umana. L’automazione può accelerare i processi, ma senza regole e senza comprensione resta cieca.

La sfida, oggi, non è sostituire l’intelligenza umana, ma costruire strumenti che sappiano dialogare con essa, creando un ecosistema tecnologico in cui il potere dell’AI sia temperato dalla precisione della software intelligence e dal giudizio delle persone che la guidano.

Come ricorda Slocovich, «serve un meccanismo deterministico che permetta di educare l’AI, o meglio, di veicolarne la forza». Un invito a ripensare l’uso dell’intelligenza artificiale non come magia, ma come ingegneria della conoscenza.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati