
L’intelligenza artificiale generativa è ormai entrata nei workflow di milioni di developer. Ma se l’AI può scrivere codice, analizzare dati e interagire con tool, come possiamo garantirle un accesso sicuro, standardizzato ed estensibile a tutto ciò che serve davvero nello sviluppo quotidiano?
La risposta si chiama Model Context Protocol (MCP), lo standard open-source proposto da Anthropic che sta rapidamente diventando un punto di riferimento per integrare Large Language Models con strumenti, API e servizi. A Codemotion Milano esploreremo MCP in profondità con tre sessioni che vanno dai principi tecnici agli use case concreti, fino alle prospettive per l’impresa e l’open source.
MCP: cos’è e come funziona
Fabio Lipreri (AI Engineer, xtream) ci porterà dentro le fondamenta tecniche del protocollo. Non solo buzzword, ma dettagli ingegneristici che mostrano come MCP funzioni sotto il cofano:
- JSON-RPC message format e canali di streaming per uno scambio dati standard e bidirezionale.
- Version-negotiation per garantire compatibilità ed evoluzione nel tempo.
- Sandboxing per tool isolati, che previene scenari da incubo (come quando un LLM tenta un
rm -rf /
). - Context retrieval gerarchico, che estende la “memoria” dei modelli oltre i limiti dei token.
Con esempi reali che includono Postgres, Slack e GitHub, il talk mostra come passare dall’astrazione alla pratica, con l’obiettivo di ridurre il classico “integration nightmare” che affligge chi lavora con più strumenti.
MCP e superpoteri ai chatbot AI
Se MCP è un protocollo, la vera forza emerge quando lo si applica a casi d’uso concreti.
Simone Desantis (CTO, Openapi SPA) porterà il case study del loro MCP, che connette un chatbot a oltre 400 servizi API e a milioni di dati accessibili con un semplice prompt testuale o persino comandi vocali.
L’approccio apre scenari interessanti per:
- migliorare la pertinenza delle risposte AI, grazie all’accesso diretto a fonti di dati aggiornati;
- automatizzare processi aziendali, senza la complessità di integrazioni personalizzate;
- semplificare l’interazione uomo-macchina, rendendo i chatbot veri e propri orchestratori di sistemi.
In altre parole: MCP diventa il ponte che collega AI e business.
Dalla produttività allo sviluppo agentico
Infine, Natale Vinto & Matteo Combi (Red Hat) proporranno una prospettiva più ampia: come MCP si inserisce nel percorso verso l’Agentic AI, un approccio in cui i modelli non solo generano codice o risposte, ma orchestrano autonomamente task complessi integrando più strumenti.
Partendo dallo stato dell’arte dello sviluppo assistito da AI, i due esperti mostreranno come framework open source come Llama Stack e protocolli aperti come MCP permettano di:
- sfruttare AI locali e open source, in contesti dove privacy e sovranità digitale sono essenziali;
- aumentare la produttività fino al 45%, con benefici concreti nel ciclo di vita del software;
- costruire un percorso pragmatico verso un’AI enterprise che sia utile, sicura e sostenibile.
📌 MCP in breve
Quello che emerge dalle tre sessioni è chiaro: MCP non è l’ennesima sigla nel mare di buzzword sull’AI. È un protocollo open, concreto, pensato per risolvere un problema reale dei developer: connettere modelli, tool e dati senza dover reinventare ogni volta le integrazioni.
Per chi sviluppa software, significa meno attrito e più innovazione.
Per le aziende, significa ridurre complessità e aumentare sicurezza.
Per la community, significa avere uno standard aperto su cui costruire insieme.
Cos’è
Il Model Context Protocol (MCP) è uno standard open-source sviluppato da Anthropic per connettere Large Language Models (LLM) con strumenti, dati e applicazioni in modo sicuro e universale.
Perché è importante
- Risolve il problema delle integrazioni “N×M” tra modelli e tool.
- Offre un linguaggio comune che semplifica l’orchestrazione tra AI e sistemi aziendali.
- Aumenta sicurezza e governance grazie a sandboxing e processi isolati.
Come funziona
- Protocollo basato su JSON-RPC per comunicazioni bidirezionali.
- Supporto a streaming channel e version-negotiation.
- Gestione del contesto gerarchico per superare i limiti di memoria dei modelli.
Casi d’uso
- Integrazione con database (Postgres), repository (GitHub), messaggistica (Slack).
- Accesso a centinaia di API aziendali con un unico prompt.
- Abilitare AI agent “enterprise-ready”, sicuri e realmente produttivi.
Il futuro
Con framework open source come Llama Stack, MCP diventa la base per lo sviluppo di applicazioni Agentic AI, capaci di orchestrare task complessi e supportare la produttività dei team fino al +45%.
👉 Vuoi portarti a casa non solo concetti, ma strumenti e ispirazioni per il tuo lavoro quotidiano? MCP è il tema che non puoi perderti a Codemotion Milan 25!