La Rome AI Tech Week si prepara a ospitare Codemotion Roma 2026, e i primi speaker annunciati fanno capire una cosa chiara: quest’anno non si parlerà di hype, ma di produzione. Di quella differenza abissale tra “funziona sul mio laptop” e “regge 10.000 utenti concorrenti senza bruciare il budget cloud”.
Se hai mai lanciato un prototipo AI pensando “fantastico, ora lo metto in prod” per poi scoprire che si pianta alla prima ondata di traffico reale, questi talk sono per te. Qui non troverai slide piene di buzzword o demo che girano solo con dati perfetti. Troverai engineer che hanno fatto esplodere sistemi in produzione, imparato la lezione e sono tornati con pattern concreti da portare a casa lunedì mattina.
Dalla gestione del caos nei RAG system alla costruzione di agenti che girano completamente nel browser, dal rilascio automatizzato di software all’open source che scala globalmente: ecco chi sale sul palco e cosa ha da raccontare.
Mohammed Aboullaite – Backend Engineer, Spotify
RAG in produzione: La demo funziona. Il deploy no. Ecco perché.
Il tuo prototipo RAG risponde in due secondi con risultati perfetti. Poi lo metti in produzione con mille utenti concorrenti e crolla miseramente. Mohammed Aboullaite, backend engineer in Spotify, ha visto questa scena ripetersi troppe volte.
Nel suo talk affronta il problema che tutti i developer AI conoscono bene: la Retrieval-Augmented Generation ha trasformato i modelli in sistemi connessi alla realtà, ma tra il Jupyter notebook e un servizio production-ready c’è un abisso di complessità nascosta. Non si tratta solo di far funzionare il sistema, ma di farlo scalare da dieci a diecimila query al secondo senza mandare in bancarotta il reparto finance.
Mohammed promette zero teoria e massima concretezza: retrieval strategies che reggono il carico, semantic caching per non riprocessare sempre le stesse richieste, circuit breakers per quando le cose vanno male (e andranno male), fallback intelligenti e observability che ti dice davvero cosa sta succedendo, non solo quanti errori 500 hai collezionato.
Il talk è deliberatamente stack-agnostic. Che tu lavori su JVM, Python, Go o Node, i problemi sono gli stessi. E le soluzioni anche. Un’occasione per capire cosa separa un’architettura solida da un castello di carte pronto a crollare al primo picco di traffico.
Teresa Wu – VP Engineer at J.P. Morgan, GDE Flutter/Dart
Pipeline di rilascio potenziate dall’AI: dall’ansia da deploy alla serenità in produzione
Rilasciare software non dovrebbe significare perdere ore in task ripetitivi, checklist infinite e quella sensazione di ansia ogni volta che premi il bottone di deploy. Teresa Wu, VP Engineer in J.P. Morgan e Google Developer Expert per Flutter/Dart, sa bene quanto questo processo possa essere frustrante e dispendioso.
Il suo approccio è chiaro: automatizzare le parti noiose del processo di rilascio usando l’AI, lasciando ai team ciò che conta davvero, ovvero scrivere codice e portare valore in produzione. Il focus principale? Far generare ai Large Language Model release notes che siano davvero utili, chiare e complete, non la solita lista di commit incomprensibili che nessuno legge.
Ma non si ferma qui. Teresa mostrerà come progettare pipeline che riducono drasticamente tempi e overhead senza sacrificare qualità o controllo, e come l’AI possa analizzare i log del CI/CD per individuare problemi potenziali prima che si trasformino in deployment falliti. Perché è sempre meglio sapere che qualcosa sta per rompersi prima che lo faccia davanti agli utenti.
La sessione chiude con best practice concrete per integrare queste soluzioni in modo sicuro e affidabile, mantenendo coerenza con gli standard del team e del prodotto. Se lavori su pipeline moderne e vuoi capire come portare davvero l’AI dalla teoria alla produzione, questa è una di quelle sessioni da segnare in rosso.
Edoardo Dusi – Senior Developer Relations Engineer
Total Recall: quando il RAG chatbot inventa fatti con sicurezza impressionante
Hai seguito tutti i tutorial. Hai embeddato la documentazione, collegato un vector database e rilasciato un RAG chatbot fiammante. E poi lo hai visto inventare fatti con una sicurezza che farebbe invidia a un politico in campagna elettorale.
Edoardo Dusi, Senior Developer Relations Engineer, parte esattamente da qui: lo “standard playbook” dei RAG non sta funzionando come promesso. Il problema non è il modello troppo piccolo. Non è la mancanza di dati. È il retrieval che fa schifo.
Il colpo di scena del suo talk “Total Recall” è che in produzione le vere vittorie sono spesso semplici e contro-intuitive. Non hai bisogno di un modello più grosso o di un budget da venture capital. Hai bisogno di un retrieval più intelligente, con pattern che la maggior parte dei tutorial ignora completamente.
Edoardo promette di mostrare cosa trasforma davvero una proof of concept in un sistema pronto per la produzione. Se stai lavorando con RAG e sei stufo di debuggare allucinazioni sempre più creative, questo talk ti darà leve concrete e subito applicabili per fare il salto dalla demo alla produzione. Pronti per una sorpresa? Probabilmente sì, ma non quella che vi aspettate.
Francesco Ciulla – Developer Advocate at daily.dev, Docker Captain
Rust per l’AI: Costruiamo un server MCP da zero con Docker
MCP, MCP, MCP… MCO? Il Model Context Protocol si sta rapidamente affermando come lo standard de facto per collegare gli LLM al mondo reale. Peccato che la maggior parte degli esempi in circolazione si fermi a script improvvisati e proof-of-concept che reggono fino alla prima pull request.
Francesco Ciulla, Developer Advocate in daily.dev e Docker Captain, ha una domanda semplice: come si costruisce davvero un’integrazione solida, performante e manutenibile, pronta per la produzione? E la risposta, altrettanto semplice: con Rust. Ovviamente.
Nel suo talk Francesco mostrerà come andare oltre le demo fragili, progettando integrazioni MCP che reggono il carico, minimizzano i costi e non diventano un incubo da mantenere dopo tre sprint. Un approccio pragmatico, orientato alla produzione, per chi vuole portare gli LLM fuori dal laboratorio e dentro sistemi reali che devono funzionare ventiquattro ore su ventiquattro.
Preparatevi a sporcarvi le mani con codice vero, Docker container e tutte quelle cose noiose ma fondamentali che separano un side project da un servizio che gira in produzione senza svegliarti alle tre di notte.
Piero Savastano – Cheshire Cat AI
Dal side project all’adozione globale: lezioni da un progetto AI open source
Fare open source è difficile: alta qualità, bassa sostenibilità. Quando il progetto cresce, mantenerlo diventa sempre più complesso. Se poi sei in un settore che corre veloce come l’AI, la sfida raddoppia e ti ritrovi a rincorrere breaking change ogni due settimane.
Piero Savastano condividerà le lezioni imparate costruendo Cheshire Cat AI, un framework per agenti nato in Italia nel 2022 che è arrivato ad avere adozione globale. Come si bilancia complessità tecnica e developer experience quando il tuo pubblico va dal principiante curioso all’enterprise con requisiti assurdi? Come si compete con i giganti del settore quando hai un team ridotto e budget limitato? E soprattutto, come si rilasciano versioni stabili in mezzo alle “protocol wars” che caratterizzano il mondo AI?
Questo talk è per chi vuole capire cosa significa davvero mantenere un progetto open source che scala, con tutte le sfide tecniche, organizzative e umane che questo comporta. Non aspettatevi una storia di successo lineare: aspettatevi errori, pivot e quella saggezza che si guadagna solo sbattendo la testa contro problemi reali.
Nico Martin – Open Source ML Engineer at Hugging Face
Guarda mamma, senza mani! Agenti AI multimodali nel browser
Immagina un’AI che vive nel tuo browser. Nessun server. Nessuna latenza. Totale privacy. Sembra fantascienza? Nico Martin, Open Source ML Engineer in Hugging Face, è qui per dimostrarti che è già realtà.
Nel suo talk mostrerà come costruire agenti AI incredibilmente potenti che ascoltano e rispondono alla tua voce, analizzano immagini in tempo reale, mantengono il contesto delle conversazioni e funzionano completamente offline. Il tutto senza mai inviare un singolo byte ai server.
Grazie a WebGPU e WebAssembly, il browser è diventato una piattaforma AI completa. Non stiamo parlando di modelli giocattolo o demo che funzionano solo con esempi preparati. Stiamo parlando di agenti multimodali veri, che girano sulla tua macchina, con i tuoi dati che rimangono i tuoi dati.
Preparatevi a vedere cosa è possibile fare quando l’intelligenza artificiale incontra il web aperto. E preparatevi a rivedere tutte le vostre assunzioni su dove l’AI debba necessariamente girare.
Codemotion Roma 2026 si preannuncia come un evento dove l’AI smette di essere un argomento teorico e diventa una questione di architettura, di scelte concrete, di trade-off misurabili. Questi speaker portano sul palco cicatrici da produzione e pattern che funzionano davvero. Il tipo di conoscenza che non trovi nei tutorial, ma solo dopo aver fatto crashare qualche sistema e aver imparato la lezione.
Ci vediamo a Roma.




