• Skip to primary navigation
  • Skip to main content
  • Skip to footer

Codemotion Magazine

We code the future. Together

  • Discover
    • Events
    • Community
    • Partners
    • Become a partner
    • Hackathons
  • Magazine
    • Backend
    • Dev community
    • Carriere tech
    • Intelligenza artificiale
    • Interviste
    • Frontend
    • DevOps/Cloud
    • Linguaggi di programmazione
    • Soft Skill
  • Talent
    • Discover Talent
    • Jobs
    • Manifesto
  • Companies
  • For Business
    • EN
    • IT
    • ES
  • Sign in
ads

CodemotionGennaio 21, 2026 6 min di lettura

I primi speaker di Codemotion Roma 2026: L’AI esce dal laboratorio

Eventi
Roma 2026
facebooktwitterlinkedinreddit

La Rome AI Tech Week si prepara a ospitare Codemotion Roma 2026, e i primi speaker annunciati fanno capire una cosa chiara: quest’anno non si parlerà di hype, ma di produzione. Di quella differenza abissale tra “funziona sul mio laptop” e “regge 10.000 utenti concorrenti senza bruciare il budget cloud”.

Se hai mai lanciato un prototipo AI pensando “fantastico, ora lo metto in prod” per poi scoprire che si pianta alla prima ondata di traffico reale, questi talk sono per te. Qui non troverai slide piene di buzzword o demo che girano solo con dati perfetti. Troverai engineer che hanno fatto esplodere sistemi in produzione, imparato la lezione e sono tornati con pattern concreti da portare a casa lunedì mattina.

Recommended article
hackathon2
Dicembre 3, 2025

L’Intelligenza artificiale generativa e la nascita delle competenze del futuro: Un Hackathon con IBM, UniSa e Codemotion

Arnaldo Morena

Arnaldo Morena

Eventi

Dalla gestione del caos nei RAG system alla costruzione di agenti che girano completamente nel browser, dal rilascio automatizzato di software all’open source che scala globalmente: ecco chi sale sul palco e cosa ha da raccontare.

Mohammed Aboullaite – Backend Engineer, Spotify

RAG in produzione: La demo funziona. Il deploy no. Ecco perché.

Il tuo prototipo RAG risponde in due secondi con risultati perfetti. Poi lo metti in produzione con mille utenti concorrenti e crolla miseramente. Mohammed Aboullaite, backend engineer in Spotify, ha visto questa scena ripetersi troppe volte.

Nel suo talk affronta il problema che tutti i developer AI conoscono bene: la Retrieval-Augmented Generation ha trasformato i modelli in sistemi connessi alla realtà, ma tra il Jupyter notebook e un servizio production-ready c’è un abisso di complessità nascosta. Non si tratta solo di far funzionare il sistema, ma di farlo scalare da dieci a diecimila query al secondo senza mandare in bancarotta il reparto finance.

Mohammed promette zero teoria e massima concretezza: retrieval strategies che reggono il carico, semantic caching per non riprocessare sempre le stesse richieste, circuit breakers per quando le cose vanno male (e andranno male), fallback intelligenti e observability che ti dice davvero cosa sta succedendo, non solo quanti errori 500 hai collezionato.

Il talk è deliberatamente stack-agnostic. Che tu lavori su JVM, Python, Go o Node, i problemi sono gli stessi. E le soluzioni anche. Un’occasione per capire cosa separa un’architettura solida da un castello di carte pronto a crollare al primo picco di traffico.

Teresa Wu – VP Engineer at J.P. Morgan, GDE Flutter/Dart

Pipeline di rilascio potenziate dall’AI: dall’ansia da deploy alla serenità in produzione

Rilasciare software non dovrebbe significare perdere ore in task ripetitivi, checklist infinite e quella sensazione di ansia ogni volta che premi il bottone di deploy. Teresa Wu, VP Engineer in J.P. Morgan e Google Developer Expert per Flutter/Dart, sa bene quanto questo processo possa essere frustrante e dispendioso.

Il suo approccio è chiaro: automatizzare le parti noiose del processo di rilascio usando l’AI, lasciando ai team ciò che conta davvero, ovvero scrivere codice e portare valore in produzione. Il focus principale? Far generare ai Large Language Model release notes che siano davvero utili, chiare e complete, non la solita lista di commit incomprensibili che nessuno legge.

Ma non si ferma qui. Teresa mostrerà come progettare pipeline che riducono drasticamente tempi e overhead senza sacrificare qualità o controllo, e come l’AI possa analizzare i log del CI/CD per individuare problemi potenziali prima che si trasformino in deployment falliti. Perché è sempre meglio sapere che qualcosa sta per rompersi prima che lo faccia davanti agli utenti.

La sessione chiude con best practice concrete per integrare queste soluzioni in modo sicuro e affidabile, mantenendo coerenza con gli standard del team e del prodotto. Se lavori su pipeline moderne e vuoi capire come portare davvero l’AI dalla teoria alla produzione, questa è una di quelle sessioni da segnare in rosso.

Edoardo Dusi – Senior Developer Relations Engineer

Total Recall: quando il RAG chatbot inventa fatti con sicurezza impressionante

Hai seguito tutti i tutorial. Hai embeddato la documentazione, collegato un vector database e rilasciato un RAG chatbot fiammante. E poi lo hai visto inventare fatti con una sicurezza che farebbe invidia a un politico in campagna elettorale.

Edoardo Dusi, Senior Developer Relations Engineer, parte esattamente da qui: lo “standard playbook” dei RAG non sta funzionando come promesso. Il problema non è il modello troppo piccolo. Non è la mancanza di dati. È il retrieval che fa schifo.

Il colpo di scena del suo talk “Total Recall” è che in produzione le vere vittorie sono spesso semplici e contro-intuitive. Non hai bisogno di un modello più grosso o di un budget da venture capital. Hai bisogno di un retrieval più intelligente, con pattern che la maggior parte dei tutorial ignora completamente.

Edoardo promette di mostrare cosa trasforma davvero una proof of concept in un sistema pronto per la produzione. Se stai lavorando con RAG e sei stufo di debuggare allucinazioni sempre più creative, questo talk ti darà leve concrete e subito applicabili per fare il salto dalla demo alla produzione. Pronti per una sorpresa? Probabilmente sì, ma non quella che vi aspettate.

Francesco Ciulla – Developer Advocate at daily.dev, Docker Captain

Rust per l’AI: Costruiamo un server MCP da zero con Docker

MCP, MCP, MCP… MCO? Il Model Context Protocol si sta rapidamente affermando come lo standard de facto per collegare gli LLM al mondo reale. Peccato che la maggior parte degli esempi in circolazione si fermi a script improvvisati e proof-of-concept che reggono fino alla prima pull request.

Francesco Ciulla, Developer Advocate in daily.dev e Docker Captain, ha una domanda semplice: come si costruisce davvero un’integrazione solida, performante e manutenibile, pronta per la produzione? E la risposta, altrettanto semplice: con Rust. Ovviamente.

Nel suo talk Francesco mostrerà come andare oltre le demo fragili, progettando integrazioni MCP che reggono il carico, minimizzano i costi e non diventano un incubo da mantenere dopo tre sprint. Un approccio pragmatico, orientato alla produzione, per chi vuole portare gli LLM fuori dal laboratorio e dentro sistemi reali che devono funzionare ventiquattro ore su ventiquattro.

Preparatevi a sporcarvi le mani con codice vero, Docker container e tutte quelle cose noiose ma fondamentali che separano un side project da un servizio che gira in produzione senza svegliarti alle tre di notte.

Piero Savastano – Cheshire Cat AI

Dal side project all’adozione globale: lezioni da un progetto AI open source

Fare open source è difficile: alta qualità, bassa sostenibilità. Quando il progetto cresce, mantenerlo diventa sempre più complesso. Se poi sei in un settore che corre veloce come l’AI, la sfida raddoppia e ti ritrovi a rincorrere breaking change ogni due settimane.

Piero Savastano condividerà le lezioni imparate costruendo Cheshire Cat AI, un framework per agenti nato in Italia nel 2022 che è arrivato ad avere adozione globale. Come si bilancia complessità tecnica e developer experience quando il tuo pubblico va dal principiante curioso all’enterprise con requisiti assurdi? Come si compete con i giganti del settore quando hai un team ridotto e budget limitato? E soprattutto, come si rilasciano versioni stabili in mezzo alle “protocol wars” che caratterizzano il mondo AI?

Questo talk è per chi vuole capire cosa significa davvero mantenere un progetto open source che scala, con tutte le sfide tecniche, organizzative e umane che questo comporta. Non aspettatevi una storia di successo lineare: aspettatevi errori, pivot e quella saggezza che si guadagna solo sbattendo la testa contro problemi reali.

Nico Martin – Open Source ML Engineer at Hugging Face

Guarda mamma, senza mani! Agenti AI multimodali nel browser

Immagina un’AI che vive nel tuo browser. Nessun server. Nessuna latenza. Totale privacy. Sembra fantascienza? Nico Martin, Open Source ML Engineer in Hugging Face, è qui per dimostrarti che è già realtà.

Nel suo talk mostrerà come costruire agenti AI incredibilmente potenti che ascoltano e rispondono alla tua voce, analizzano immagini in tempo reale, mantengono il contesto delle conversazioni e funzionano completamente offline. Il tutto senza mai inviare un singolo byte ai server.

Grazie a WebGPU e WebAssembly, il browser è diventato una piattaforma AI completa. Non stiamo parlando di modelli giocattolo o demo che funzionano solo con esempi preparati. Stiamo parlando di agenti multimodali veri, che girano sulla tua macchina, con i tuoi dati che rimangono i tuoi dati.

Preparatevi a vedere cosa è possibile fare quando l’intelligenza artificiale incontra il web aperto. E preparatevi a rivedere tutte le vostre assunzioni su dove l’AI debba necessariamente girare.


Codemotion Roma 2026 si preannuncia come un evento dove l’AI smette di essere un argomento teorico e diventa una questione di architettura, di scelte concrete, di trade-off misurabili. Questi speaker portano sul palco cicatrici da produzione e pattern che funzionano davvero. Il tipo di conoscenza che non trovi nei tutorial, ma solo dopo aver fatto crashare qualche sistema e aver imparato la lezione.

Ci vediamo a Roma.

Related Posts

CTO Connect

CTO Connect Milano: cosa si sono detti i tech leader (e perché ti riguarda)

Codemotion
Ottobre 29, 2025
codemotion milan 2025

The Codemotion Milan 2025 Airport Tape

Arnaldo Morena
Ottobre 22, 2025

Scott Chacon a Codemotion Milano 2025

Arnaldo Morena
Ottobre 1, 2025
codemotion team community formazione finanziata

5 talk di Codemotion Milan 2025 da vivere con il tuo team

Codemotion
Agosto 27, 2025
Share on:facebooktwitterlinkedinreddit

Tagged as:ai tech week roma

Codemotion
Articoli scritti dallo staff di Codemotion. Notizie tech, ispirazione, ultime tendenze nello sviluppo del software e molto altro.
Sviluppare videogiochi con strumenti 100% open source: challenge accepted!
Previous Post
Job interview tech: il setup conta quanto il codice
Next Post

Footer

Discover

  • Events
  • Community
  • Partners
  • Become a partner
  • Hackathons

Magazine

  • Tech articles

Talent

  • Discover talent
  • Jobs

Companies

  • Discover companies

For Business

  • Codemotion for companies

About

  • About us
  • Become a contributor
  • Work with us
  • Contact us

Follow Us

© Copyright Codemotion srl Via Marsala, 29/H, 00185 Roma P.IVA 12392791005 | Privacy policy | Terms and conditions