• Skip to primary navigation
  • Skip to main content
  • Skip to footer

Codemotion Magazine

We code the future. Together

  • Discover
    • Events
    • Community
    • Partners
    • Become a partner
    • Hackathons
  • Magazine
    • DevOps
    • Carreras tech
    • Frontend
    • Inteligencia Artificial
    • Dev life
    • Desarrollo web
  • Talent
    • Discover Talent
    • Jobs
    • Manifiesto
  • Companies
  • For Business
    • EN
    • IT
    • ES
  • Sign in
ads

Natalia de Pablo Garciafebrero 24, 2026 5 min read

¡Poder para los developers! Cloud vs on-prem en la era de los LLM

Inteligencia Artificial
power to the devs
facebooktwitterlinkedinreddit

Este artículo está basado en la charla de Francesco Corti en Codemotion Milano 2025.

Francesco es Principal Product Manager en Docker, donde se dedica a algo muy poco sospechoso: decidir cómo va a ser el futuro de la Developer Experience mientras todos fingimos que ya lo entendemos. Lleva más de 25 años entre software engineering y product management, ha pasado por sitios como Spotify y Hyland, y ahora habla de AI infraestructural, LLM locales y el futuro de las plataformas como quien habla del tiempo. Pero con GPUs.

Recommended article
febrero 24, 2026

Quien sabe manejar bien la IA, no es culpable, pero tampoco es inocente.

Codemotion

Codemotion

Inteligencia Artificial

Subió al escenario y soltó una pregunta aparentemente irónica:
—¿Cuántos estáis cansados de oír hablar de IA?

Risa nerviosa en la sala. No porque la IA haya dejado de interesar. Sino porque ya no es tendencia: es infraestructura cultural. Está en todas partes. En el código. En el Excel. En la conversación incómoda con tu jefe sobre “optimización de recursos”.

La IA empezó siendo investigación. Luego plataforma. Luego servicio. Y ahora es factura mensual.

La era mágica del prompt (y de la tarjeta de crédito)

Durante años hemos vivido el sueño húmedo del desarrollador pragmático: escribes un prompt, llamas a una API, recibes magia. No gestionas GPUs. No orquestas inferencia distribuida. No sabes dónde corre el modelo. Puede que esté en un data center remoto. Puede que esté en Marte. Puede que lo esté sujetando un becario con un ventilador industrial.

Era inevitable. Y fue revolucionario.

Pero todo ciclo tecnológico tiene ese momento incómodo en el que dejamos de preguntar “¿funciona?” y empezamos a preguntar “¿de quién es realmente?”.

Y ahí estamos.

Cuando la IA entra en sistemas core —pricing, antifraude, supply chain, automatización de soporte, agentes operativos— la conversación deja de ser futurista y se vuelve contable:

  • ¿Cuánto me cuesta esto a escala, de verdad?
  • ¿Dónde están mis datos?
  • ¿Qué pasa si el proveedor cambia el pricing un martes cualquiera?
  • ¿Cuánto puedo personalizar sin rehacer medio stack y mi salud mental?

No son preguntas nuevas. Son las mismas que hicimos con el cloud, con los managed services, con el SaaS. La historia del software siempre es un péndulo entre velocidad y control. Entre “qué fácil” y “a qué precio”.

La verdadera revolución no es el modelo. Es la arquitectura.

El giro interesante no es que existan modelos locales. Es que el modelo deja de ser el centro místico del sistema y se convierte en un componente intercambiable.

Aquí entra el concepto sexy de la temporada: el inference engine como capa software real. No solo runtime. Interfaz estable entre aplicación y modelo. Cuando ese layer se estandariza, ocurre algo profundamente developer: el modelo se vuelve reemplazable.

Hoy Llama. Mañana Mistral. Pasado mañana uno con nombre impronunciable financiado por tres VCs y una criptomoneda.

La IA deja de ser “la cosa especial”. Pasa a ser parte del stack. Como el database engine. Como el container runtime. Como ese microservicio que nadie sabe exactamente qué hace pero todos respetan.

Developer Experience: ya no es excusa

Durante años, llevar IA en local era casi un acto de militancia técnica. Sacrificabas velocidad de desarrollo a cambio de control.

Ahora no necesariamente.

Containerización, orquestación simplificada, toolchains modernas… la experiencia local empieza a parecerse peligrosamente a la del cloud. No idéntica. Pero lo bastante cercana como para que la decisión deje de ser obvia.

Si mover un workload de IA implica cambiar endpoints y redefinir pipelines runtime, ya no estamos hablando de experimento. Estamos hablando de arquitectura de verdad. De decisiones que salen en el comité. De PowerPoints con flechas serias.

El mito romántico del “local es gratis”

Spoiler: no lo es.

Self-hosted no significa coste cero. Significa cambiar el tipo de coste. Menos OpEx por token, más inversión en infraestructura, talento, seguridad, observabilidad y cafés largos mirando dashboards.

Pero cuando la IA entra en el core del negocio, ese trade-off deja de ser ideológico y pasa a ser estratégico. Además, la distancia entre modelos cloud y modelos locales se está reduciendo más rápido de lo que muchas roadmap enterprise quieren admitir en público.

Lo que hace un año era territorio exclusivo de hyperscalers, hoy empieza a correr en infraestructuras bastante más terrenales. Eso no mata al cloud. Lo obliga a compartir protagonismo.

Y eso, para los developers, huele a libertad.

El futuro no es una pelea. Es híbrido.

La narrativa “cloud vs local” es atractiva porque simplifica. Pero es falsa.

El futuro realista es híbrido:

  • Cloud para tareas de altísima complejidad y orquestaciones globales.
  • Local para automatizaciones operativas, RAG masivo, agentes verticales, embeddings, workloads repetitivos.

Es lo que siempre pasa cuando una tecnología madura: deja de ser centralizada y se distribuye. Se vuelve menos épica y más útil.

El mensaje importante (no es técnico)

El takeaway más potente no es arquitectural. Es humano.

La IA no es una conciencia emergente. No es tu sustituto. Es un amplificador. Y como todo amplificador, la diferencia la marca quien lo usa.

Por primera vez en años, los desarrolladores pueden elegir dónde vive la inteligencia de sus aplicaciones. Pueden poseerla. Optimizarla. Controlar su coste real. Decidir cómo evoluciona.

Y cada vez que el control vuelve a quienes construyen software, empieza un nuevo ciclo de innovación. O, como mínimo, un nuevo hype con mejor documentación.

Personalmente —quizá por el acento de Francesco, quizá por los temas— la charla sonó a algo parecido a un nuevo humanismo digital. Para quienes le seguimos desde hace tiempo, su discurso encaja como evolución natural entre AI infrastructure, developer tooling y platform engineering.

Eso sí: esta vez abrió tantas puertas que uno sospecha que en el próximo ciclo de conferencias vendrán más demos, más código y menos metáfora.

Y sinceramente, no veo la hora.

Codemotion Collection Background
ai
Seleccionados para ti

¿Te gustaría leer más artículos como este? Explora la colección ai , con una selección personalizada y siempre actualizada de contenido nuevo.

Share on:facebooktwitterlinkedinreddit
Natalia de Pablo Garcia
¡Hola! Soy Natalia, Community Manager y Social Media de Codemotion. Mi función es ser el enlace con las comunidades tecnológicas en España.
Cuando la inteligencia artificial crea en tu lugar: ¿diseñador o autor?
Artículo anterior
Quien sabe manejar bien la IA, no es culpable, pero tampoco es inocente.
Próximo artículo

Footer

Discover

  • Events
  • Community
  • Partners
  • Become a partner
  • Hackathons

Magazine

  • Tech articles

Talent

  • Discover talent
  • Jobs

Companies

  • Discover companies

For Business

  • Codemotion for companies

About

  • About us
  • Become a contributor
  • Work with us
  • Contact us

Follow Us

© Copyright Codemotion srl Via Marsala, 29/H, 00185 Roma P.IVA 12392791005 | Privacy policy | Terms and conditions