Fino a poco tempo fa, integrare i modelli di intelligenza artificiale con dati aggiornati e strumenti esterni era un esercizio frammentario basato su soluzioni su misura, plugin proprietari, framework eterogenei. Ogni nuova connessione implicava sviluppi ad hoc, aumentando inevitabilmente costi, tempi e complessità.
A cambiare le carte in tavola è il Model Context Protocol (MCP), presentato da Anthropic – l’azienda dietro a Claude AI – alla fine del 2024. Pensato come uno standard aperto e universale, MCP consente ai modelli AI di collegarsi facilmente a fonti di dati, applicazioni e servizi esterni tramite un’unica interfaccia. Più che un semplice strumento di integrazione, è stato definito l’USB-C dell’AI, per la sua ambizione di superare la frammentazione tecnica, analogamente a quanto avvenuto per l’USB-C nel mondo dell’hardware.
Il principio che guida MCP è semplice: fornire ai modelli un accesso strutturato e uniforme a un vasto ecosistema di dati e strumenti, permettendo loro di combinare servizi diversi, aggiornare il proprio contesto operativo in tempo reale e agire in modo più autonomo. La sua architettura, che per analogia potremmo accostare a protocolli consolidati come il Language Server Protocol, offre un’interazione scalabile e modulare tra AI e ambiente digitale.
Il lancio del Model Context Protocol ha subito attirato l’attenzione di tutta l’industria tecnologica. Colossi tradizionalmente concorrenti come OpenAI e Google hanno annunciato l’adozione del protocollo nei propri prodotti, dando vita a una convergenza strategica tanto entusiasta quanto inedita. Parallelamente, una comunità di sviluppatori sempre più numerosa ha iniziato a creare centinaia di server MCP open source, rendendo possibile l’interazione dei modelli con database, filesystem, API web e piattaforme di produttività in modo rapido e fluido.
Ma MCP non rappresenta solo un progresso tecnico. È il segnale di una svolta più profonda: il passaggio da modelli confinati alla generazione di testo su base pre-addestrata ad agenti operativi, in grado di influenzare attivamente l’ambiente digitale. Una prospettiva che spalanca nuove opportunità, ma che richiede anche un ripensamento serio delle tematiche di sicurezza, governance e responsabilità.
Indice degli argomenti:
Model Context Protocol, perché nasce: dal function calling alla standardizzazione
Per capire davvero perché è nato il Model Context Protocol, bisogna guardare all’evoluzione recente del rapporto tra modelli AI e ambienti esterni. Fino a poco tempo fa i modelli linguistici, che pure avevano fatto passi da gigante nella comprensione e generazione del linguaggio naturale, restavano chiusi in una bolla di conoscenza statica, limitata ai dati disponibili in fase di addestramento.
Un primo tentativo concreto di superare questo limite è arrivato con l’introduzione del function calling da parte di OpenAI nel 2023. Grazie a questa innovazione, i modelli non si limitavano più a rispondere a un prompt testuale, ma potevano interpretare le richieste come comandi da eseguire su API o servizi reali. In pratica, l’AI non si fermava più alla produzione di testo: era in grado di cercare online, effettuare prenotazioni, interrogare database, controllare dispositivi.

Tuttavia, la novità non ha risolto i problemi di fondo. Ogni implementazione era fortemente personalizzata. Ogni sviluppatore, ogni azienda, ogni ecosistema creava il proprio metodo per collegare modelli e strumenti esterni. Sono così nati plugin proprietari, marketplace di estensioni (come quelli di ChatGPT e Claude), framework di orchestrazione come LangChain o LlamaIndex, e un’infinità di integrazioni su misura. Strumenti utili, certo, ma che hanno generato un panorama ancora più frammentato: ogni piattaforma parlava una lingua diversa, e integrare un modello AI in un sistema complesso restava un lavoro impegnativo e costoso.
La situazione peggiorava con l’aumentare della complessità delle applicazioni AI. Gli agenti più avanzati, capaci di eseguire più sequenze intelligenti di azioni, non potevano affidarsi a integrazioni rigide e predefinite. Avevano bisogno di un accesso dinamico a una varietà di strumenti, da scoprire e combinare al momento in base alle attività da svolgere. In un mondo di API eterogenee e connessioni manuali, questa flessibilità era impossibile da realizzare.
L’assenza di uno standard comune generava inefficienze ovunque: duplicazione degli sforzi, costi elevati, difficoltà di scalabilità e, soprattutto, limiti concreti alla creazione di agenti davvero autonomi. Ogni nuova connessione richiedeva di ripartire da zero, risolvendo problemi già affrontati altrove ma in modi incompatibili.
La nascita del Model Context Protocol
È in questo scenario che Anthropic ha costruito MCP. Ispirandosi a soluzioni vincenti come il Language Server Protocol – capace di superare in modo elegante la frammentazione tra editor di testo e linguaggi di programmazione – MCP punta a diventare una lingua franca per la comunicazione tra modelli AI, dati e strumenti. Un protocollo aperto, basato su standard affidabili come JSON-RPC, pensato per essere modulare, interoperabile e indipendente dal fornitore.
Vi è da dire che il successo di MCP è anche una questione di tempismo. Quando Anthropic ha presentato il protocollo, l’urgenza di soluzioni più aperte era già evidente. L’integrazione degli agenti AI con ambienti cloud, database aziendali, piattaforme di produttività, sistemi di customer service o dispositivi IoT stava diventando una necessità quotidiana, mentre le limitazioni delle soluzioni proprietarie cominciavano a rallentare l’innovazione.
Non stupisce, quindi, che il protocollo abbia trovato subito una vasta adesione. Era il prodotto giusto lanciato al momento giusto. Pochi mesi dopo il lancio, infatti, anche OpenAI, Google e Microsoft hanno annunciato l’intenzione di supportarlo nei propri prodotti principali. Una convergenza così rara in un settore altamente competitivo dimostra quanto fosse sentita la necessità di un cambiamento e quanto sia forte il valore attribuito a MCP.
MCP, insomma, non nasce da una visione astratta, ma dalla risposta concreta a una pressione crescente: semplificare, rendere sicura e scalabile l’interazione tra modelli AI e mondo reale. Un’esigenza che segnerà, probabilmente, il passaggio definitivo dagli assistenti passivi agli agenti intelligenti capaci di agire in autonomia.
Model Context Protocol: come funziona e perché è importante
Alla base del Model Context Protocol vi è l’idea di trasformare l’interazione tra modelli AI e fonti di dati esterne in un processo standardizzato, modulare e scalabile. Per apprezzare fino in fondo il peso di questa innovazione, è utile entrare nel dettaglio del suo funzionamento e capire cosa rende la sua architettura così rivoluzionaria.

MCP si fonda su una struttura tripartita: host, client e server. L’host è il sistema che ospita il modello AI – che si tratti di un’app desktop, di una piattaforma cloud o di un ambiente di sviluppo. All’interno dell’host opera il client MCP, responsabile di gestire le connessioni con i server MCP, i moduli che espongono strumenti e fonti di dati accessibili dal modello.
La comunicazione tra client e server avviene tramite JSON-RPC 2.0, un protocollo di chiamata remota leggero e ampiamente utilizzato, che consente uno scambio strutturato di richieste e risposte. Grazie a questa scelta, MCP può operare sia su connessioni locali (tramite input/output standard) sia su connessioni remote via HTTP o server-sent events (SSE), adattandosi a infrastrutture di rete diverse.
Ogni server MCP mette a disposizione un insieme definito di strumenti (“tools”) descritti in modo uniforme. Questi strumenti rappresentano azioni concrete che il modello può eseguire: interrogare un database, inviare un messaggio su Slack, recuperare un file da Google Drive, navigare online e molto altro. L’host e il modello ricevono descrizioni chiare delle capacità offerte dai server disponibili e possono selezionare dinamicamente gli strumenti più adatti al contesto operativo.
La vera forza del Model Context Protocol risiede proprio in questa modularità. Gli sviluppatori non devono più creare integrazioni ad hoc per ogni singolo servizio. È sufficiente collegare i server MCP appropriati, permettendo al modello di scoprirli e utilizzarli senza ulteriori interventi di sviluppo. I server MCP, inoltre, sono progettati per essere riutilizzabili e indipendenti: un server che consente l’accesso a un database PostgreSQL, ad esempio, può essere impiegato ovunque MCP sia supportato, a prescindere dal modello AI o dall’host.
Questa architettura porta benefici concreti. Anzitutto, unifica un ecosistema finora frammentato, favorendo l’interoperabilità tra modelli e strumenti diversi. Inoltre, accelera il rilascio di nuove funzionalità, poiché aggiungere capacità a un modello diventa semplice come installare un nuovo server MCP, riducendo tempi e costi di sviluppo. Infine, apre la strada a una nuova generazione di agenti AI, capaci di scoprire autonomamente strumenti, orchestrare sequenze di azioni complesse e operare in ambienti dinamici senza necessità di interventi manuali continui.
Il valore di MCP si riflette anche nella sua filosofia aperta. Il protocollo è stato rilasciato open source fin dall’inizio, senza vincoli di licenza o royalty, favorendo una rapida adozione e lo sviluppo spontaneo di una community vivace. Oggi esistono già centinaia di server MCP creati da sviluppatori terzi, coprendo ambiti che vanno dalla produttività aziendale all’analisi dati fino all’integrazione con dispositivi IoT.
Il protocollo funziona perché consente ai LLM di superare i limiti del training statico e di interagire attivamente con il mondo reale. Non si tratta solo di potenziare le capacità dei modelli, ma di renderli strumenti realmente autonomi, capaci di agire e reagire in modo contestuale.
Luca Sambucci, dopo oltre trent’anni passati nella cybersecurity, oggi si specializza in AI Security. Dal 2019 pubblica la prima newsletter italiana sull’IA: bollettino.notizie.ai
Il potenziale degli agenti AI grazie al Model Context Protocol
Fino a oggi, gran parte degli assistenti basati su modelli linguistici si è limitata a rispondere alle domande degli utenti, attingendo alle informazioni del proprio training set o a integrazioni predefinite. Anche i sistemi dotati di function calling o plugin operavano essenzialmente come agenti guidati dall’autonomia fortemente limitata: eseguivano azioni su richiesta diretta, senza capacità autonome di scoprire nuovi strumenti, valutare le alternative o orchestrare operazioni complesse.
Con MCP, questo approccio comincia a cambiare. I modelli che possono accedere a server MCP navigano dinamicamente tra un insieme potenzialmente illimitato di strumenti, selezionano quelli più adatti al compito da svolgere e orchestrano sequenze di azioni, senza che l’utente debba specificare ogni singolo passaggio. La differenza consente ai modelli di evolvere da semplici generatori di testo a veri agenti digitali, in grado di analizzare il contesto, pianificare strategie e interagire in modo proattivo con l’ambiente digitale.
Un esempio concreto
Un agente AI con accesso a database aziendali, piattaforme di messaggistica, strumenti di project management e servizi cloud potrebbe organizzare autonomamente una riunione interdipartimentale. Verificherebbe la disponibilità dei partecipanti, prenoterebbe una sala, invierebbe gli inviti, creerebbe l’ordine del giorno partendo dai documenti più recenti e aggiornerebbe il CRM aziendale con gli esiti dell’incontro. Tutto orchestrato in background, mentre per l’utente finale l’esperienza resterebbe quella di una semplice conversazione con l’assistente AI.
Questo salto qualitativo è reso possibile dalla natura modulare e dinamica di MCP. Ogni volta che un nuovo server viene introdotto nell’ambiente operativo, l’agente ne può sfruttare immediatamente le funzionalità, senza necessità di riprogrammare o riconfigurare il LLM. Il set di strumenti a disposizione diventa così estensibile, permettendo agli agenti AI di aggiornarsi e adattarsi con la stessa naturalezza con cui un essere umano impara a utilizzare nuovi strumenti.
Adattabilità al contesto
Un altro aspetto decisivo è l’adattabilità al contesto. Gli agenti compatibili con MCP possono scegliere autonomamente quali strumenti attivare in funzione della situazione: interrogare un database, cercare informazioni online, inviare un messaggio via Slack o aggiornare un documento in cloud, a seconda di ciò che richiede il compito da svolgere. Una capacità di comporre in autonomia sequenze di azioni che rappresenta un passo essenziale verso l’agentic AI, un concetto che sta diventando centrale nella visione evolutiva dell’intelligenza artificiale.
Naturalmente, per realizzare pienamente questa visione sono necessari modelli AI dotati di avanzate capacità di ragionamento e orchestrazione. MCP fornisce l’infrastruttura, ma il risultato finale dipende dalla qualità dei modelli e dalla solidità delle strategie di prompting e gestione delle azioni. Ciò che emerge, però, è che per la prima volta la possibilità di creare agenti AI capaci di operare nel mondo reale, integrando dinamicamente dati, strumenti e servizi esterni, non è più relegata alla ricerca sperimentale.
Model Context Protocol, criticità e sfide ancora aperte
Nonostante l’entusiasmo che accompagna questo nuovo protocollo, sarebbe un errore pensare che la sua architettura sia priva di complessità. Come ogni tecnologia giovane e ambiziosa, MCP apre nuove possibilità, ma introduce anche sfide operative, rischi tecnici e questioni organizzative che richiedono attenzione.
Una prima criticità riguarda l’aumento della complessità architetturale. MCP introduce infatti un livello intermedio tra il modello AI e gli strumenti esterni. In parole povere, ogni interazione passa attraverso client e server MCP, invece di avvenire tramite connessioni dirette e integrate. Questo implica che per ogni fonte di dati o servizio esterno deve essere disponibile un server MCP attivo, correttamente configurato e mantenuto. In scenari semplici, l’architettura può risultare un sovraccarico. In ambienti più complessi, richiede comunque infrastrutture di orchestrazione e monitoraggio più sofisticate.
Un’altra sfida riguarda le prestazioni. Ogni operazione tramite MCP comporta una comunicazione basata su Json-RPC, spesso veicolata attraverso connessioni HTTP o standard I/O. Se un agente deve eseguire molte operazioni concatenate, ad esempio interrogare un database, elaborare dati e aggiornare un’applicazione esterna, la latenza complessiva può diventare rilevante. In casi d’uso dove la velocità di risposta è critica, questi rallentamenti potrebbero rappresentare un limite o richiedere interventi di ottimizzazione mirata.
La maturità del protocollo e dell’ecosistema rappresenta un ulteriore punto delicato. MCP è stato lanciato pubblicamente solo alla fine del 2024 e, nonostante la rapida adozione, l’ecosistema di server disponibili è ancora in fase di sviluppo. Molti server MCP sono progetti open source di terze parti, con livelli di qualità, documentazione e supporto molto variabili. L’assenza di un sistema ufficiale di certificazione o verifica introduce il rischio di adottare server obsoleti, mal mantenuti o, in casi estremi, insicuri.
MCP, la sicurezza
Anche la sicurezza è una questione centrale. Ogni server MCP può rappresentare un punto di accesso a dati o sistemi aziendali sensibili. Senza adeguati meccanismi di autenticazione, autorizzazione e monitoraggio, un server potrebbe diventare vettore di attacchi o fonte di perdita di dati. Sebbene Anthropic abbia fornito indicazioni sulle best practice di sicurezza nella documentazione ufficiale di MCP, la responsabilità dell’implementazione di controlli efficaci ricade sulle organizzazioni adottanti, che devono predisporre sistemi di accesso sicuro, audit trail, monitoraggio continuo e procedure di risposta agli incidenti.
Dal punto di vista organizzativo, esiste infine una sfida culturale: adottare MCP richiede un cambiamento di approccio. I team di sviluppo devono acquisire nuove competenze, passando dal semplice prompt engineering alla gestione di agenti AI che orchestrano strumenti in modo dinamico. I reparti IT devono ripensare le architetture di sicurezza e governance tenendo conto delle nuove modalità operative. E i responsabili delle strategie aziendali devono riconoscere che l’intelligenza artificiale non sarà più soltanto un supporto passivo alle decisioni, ma potrà agire direttamente su dati, applicazioni e processi critici.
In definitiva, MCP apre scenari straordinari, ma richiede un’adozione consapevole. I benefici potenziali sono enormi, ma solo se le organizzazioni saranno pronte a gestire con competenza le complessità tecniche, i rischi di sicurezza e i cambiamenti di paradigma che questa evoluzione inevitabilmente comporta.
Cybersecurity: il lato oscuro del Model Context Protocol
MCP apre nuovi fronti critici in materia di cybersecurity. La stessa architettura che lo rende potente e flessibile introduce vulnerabilità che, se non affrontate con rigore, possono trasformarsi in seri rischi per aziende e infrastrutture digitali.
Il primo punto sensibile riguarda l’estensione dinamica del contesto del modello. Attraverso MCP, un agente AI può scoprire e utilizzare strumenti e fonti di dati esterne non conosciute in anticipo. Se da una parte questa capacità offre una flessibilità operativa senza precedenti, dall’altra amplia notevolmente la superficie d’attacco. Ogni server MCP aggiunto a un ambiente costituisce, di fatto, un nuovo potenziale punto di ingresso per accessi non autorizzati o attacchi mirati.
Uno scenario particolarmente critico è quello della falsa fiducia nei server MCP. Un agente AI che interagisce con un server compromesso o malevolo rischia di ricevere dati corrotti, comandi dannosi o informazioni manipolate, senza disporre di strumenti per verificarne l’affidabilità. Il modello si affida infatti alla descrizione fornita dal server stesso: se questa viene falsificata o risulta incompleta, l’agente può basare le proprie decisioni su dati fuorvianti o pericolosi.

La gestione delle credenziali e delle autorizzazioni è un altro aspetto particolarmente delicato. I server MCP, per accedere a molte fonti dati o servizi, utilizzano token di accesso, chiavi API o certificati. Se questi elementi vengono archiviati senza adeguate misure di protezione, o esposti tramite configurazioni errate, il rischio di compromissione aumenta in modo esponenziale. Una violazione su un singolo server MCP potrebbe innescare effetti a catena difficili da contenere, compromettendo intere infrastrutture digitali.

Inoltre, la mancanza di specifiche standardizzate per l’audit nei primi rilasci di MCP complica ulteriormente la gestione della sicurezza. Sebbene Jason-RPC consenta la registrazione delle comunicazioni, la decisione su se, dove e come conservare i log è lasciata ai singoli installatori. Senza una tracciabilità rigorosa, diventa complesso rilevare anomalie, investigare su incidenti o ripristinare operazioni compromesse.
Un ulteriore rischio riguarda l’escalation dei privilegi. Un agente AI che accede, anche involontariamente, a strumenti sensibili tramite server MCP compromessi, come CRM aziendali, gestionali finanziari o sistemi operativi, potrebbe causare danni considerevoli, dalla perdita di dati riservati all’interruzione di servizi critici.
La comunità di sviluppatori MCP ha già iniziato a proporre contromisure: sandboxing per i server, autenticazione a più fattori, policy di whitelisting per limitare i server autorizzati a interagire con un dato host. Tuttavia, l’approccio alla sicurezza rimane ad oggi affidato alle scelte dei singoli provider, non esistendo ancora una certificazione formale o un framework di conformità obbligatorio per i server MCP.
In questo contesto, diventa evidente che l’adozione di MCP impone un’evoluzione nella gestione della sicurezza. Non è più sufficiente proteggere il perimetro del sistema AI. Serve una protezione dinamica dei server MCP, un monitoraggio continuo delle interazioni, una gestione sicura delle credenziali e sistemi di audit e risposta agli incidenti in grado di tenere il passo con la complessità crescente.
MCP avvicina l’intelligenza artificiale all’autonomia operativa, ma impone anche alla cybersecurity dell’AI – o AI security – di compiere un ennesimo salto di maturità. In questo nuovo scenario, l’errore di configurazione o l’ingenuità nella gestione della sicurezza non mettono più a rischio solo un singolo sistema, ma possono avere ripercussioni sull’intera organizzazione. La vera sfida, oggi, è governare questa complessità senza frenare le straordinarie opportunità che MCP è in grado di offrire.
Le ripercussioni: standardizzazione, competizione, innovazione
Le implicazioni del Model Context Protocol si estendono ben oltre l’ambito ingegneristico, influenzando dinamiche profonde di standardizzazione, competizione industriale e spinta all’innovazione. MCP, in altre parole, sta già iniziando a ridisegnare gli equilibri dell’intero ecosistema dell’intelligenza artificiale.
Il primo effetto evidente riguarda la standardizzazione. Dopo anni di frammentazione, in cui ogni modello AI, piattaforma o ecosistema definiva un proprio metodo proprietario per interfacciarsi al mondo esterno, MCP propone un linguaggio comune. Questa unificazione riduce drasticamente i costi di integrazione, abbatte le barriere all’adozione di nuove tecnologie e consente a sviluppatori e imprese di costruire soluzioni interoperabili senza ripartire ogni volta da zero.
Un cambiamento che ricorda quanto avvenuto in passato con protocolli come TCP/IP per le reti o USB per i dispositivi hardware. Nel breve termine, questo significa che strumenti, fonti di dati e applicazioni potranno essere condivisi e riutilizzati tra piattaforme diverse, stimolando un’economia di scala e favorendo la crescita di un ecosistema di servizi AI-ready molto più ricco e variegato.
Dal punto di vista della competizione industriale, MCP sta già spingendo le aziende a rivedere le proprie strategie. I principali attori del settore – OpenAI, Google, Microsoft, Anthropic – hanno riconosciuto che l’apertura di un protocollo condiviso è oggi più vantaggiosa della chiusura in ecosistemi proprietari. Ma la competizione ovviamente non sparirà, si sposterà su un terreno diverso, dove a fare la differenza saranno la qualità degli agenti AI e la ricchezza degli strumenti accessibili tramite MCP. Una competizione più centrata sull’esperienza d’uso e sull’efficacia operativa, meno sulla difesa di un giardino recintato.
MCP è inoltre destinato a diventare un motore di innovazione particolarmente potente. Aprendo l’accesso standardizzato a strumenti e dati, il protocollo consente a startup, sviluppatori indipendenti e comunità open source di creare nuove funzionalità senza dover passare necessariamente dai grandi provider. Questo abbassamento della barriera d’ingresso potrebbe favorire la nascita di micro-ecosistemi, innovazioni di nicchia e soluzioni verticali altamente specializzate.
Alcuni segnali sono già evidenti. In pochi mesi dal lancio del protocollo sono nati server MCP dedicati a casi d’uso molto specifici, dall’analisi automatizzata di documenti legali all’integrazione con sensori industriali, fino alla gestione autonoma di smart home avanzate. MCP democratizza la possibilità di estendere le capacità degli agenti AI, rendendo possibile una diversificazione dell’offerta senza precedenti.
MCP, un nuovo paradigma ai primi passi
Se il protocollo è ancora giovane, è già evidente che rappresenta molto più di una semplice innovazione tecnica. È il primo passo concreto verso il passaggio da modelli statici e passivi ad agenti digitali operativi, capaci di interagire dinamicamente con il mondo esterno.
Come ogni paradigma emergente, MCP si presenta con luci e ombre. Da un lato, apre scenari di interoperabilità, scalabilità e innovazione che fino a poco tempo fa sembravano riservati a pochi grandi attori. Dall’altro, introduce nuove complessità architetturali, nuove sfide di sicurezza e nuovi rischi sistemici che non possono essere sottovalutati. È il prezzo inevitabile di ogni salto tecnologico. A ogni incremento di potenza corrisponde un aumento delle responsabilità e della sofisticazione necessaria per governarla.
La storia dell’innovazione insegna che i veri cambiamenti di paradigma non si impongono dall’oggi al domani. Sono processi graduali, spesso invisibili nel breve termine, ma destinati a trasformare radicalmente il contesto sul lungo periodo. MCP oggi è ancora terreno per pionieri. Nascono i primi server, le applicazioni “agentiche” iniziano a prendere forma, le best practice di sicurezza sono in fase di definizione. Eppure, la traiettoria appare chiara. Se l’ecosistema continuerà a maturare, se si svilupperanno strumenti di governance adeguati, se i modelli sapranno evolversi per orchestrare strumenti in modo intelligente, allora MCP si affermerà come un elemento strutturale del tessuto tecnologico dei prossimi anni.
Il vero potenziale di MCP risiede nella possibilità di trasformare l’AI da tecnologia di consumo passivo a spinta di azione autonoma. Una tecnologia in grado di incidere concretamente sui flussi di lavoro, sulle decisioni operative, sulla creazione di valore. Una trasformazione che richiederà nuove competenze, strategie di adozione più sofisticate e approcci rinnovati alla cybersecurity e alla gestione del rischio. Ma una trasformazione che, una volta innescata, sarà difficile da arrestare.
Oggi MCP muove ancora i primi passi. Gli agenti AI costruiti sopra questa infrastruttura sono perlopiù sperimentali e le applicazioni su larga scala devono ancora consolidarsi. Tuttavia, come spesso accade nelle rivoluzioni tecnologiche, i segnali più rilevanti non sono quelli rumorosi, bensì quelli profondi. Pensiamo all’adozione spontanea da parte della comunità di sviluppatori, al supporto condiviso da parte dei principali player, anche alla rapidità con cui stanno nascendo ecosistemi paralleli.
Sarà cruciale osservare con attenzione l’evoluzione di MCP nei prossimi anni. Se riuscirà a mantenere le promesse di apertura, sicurezza e scalabilità, evitando gli ostacoli che hanno fatto naufragare altri protocolli, potrà essere ricordato come uno degli snodi fondamentali nell’evoluzione dell’intelligenza artificiale. Il linguaggio con cui l’AI ha iniziato, finalmente, ad agire.