Entre los diversos mundos creados en el universo de Star Trek, pocos son tan emblemáticos e inquietantes como el de los Borg.
Esta especie, una mezcla de humano y robot, fusiona tecnología y biología en una única entidad colectiva: la individualidad se pierde en favor de una mente colectiva. Los Borg representan una amenaza existencial para las otras especies, ya que su filosofía es la de la asimilación: cada ser vivo es integrado en el Colectivo, perdiendo su propia identidad y convirtiéndose en parte de un sistema más grande y eficiente.
La resistencia es inútil
Esta frase, repetida obsesivamente por los Borg, declara explícitamente que oponerse a su asimilación es inútil.
Los Borg no buscan el consenso o la cooperación; imponen su voluntad a través de la fuerza y la tecnología superior. La reina Borg, figura central de su sistema social, representa el eje de la colectividad: es capaz de entender las necesidades de cada individuo y de coordinar las acciones del Colectivo de manera eficiente y precisa.
La idea de los Borg se puede superponer de manera bastante fiel al concepto de colmena.
En la colmena, cada abeja trabaja para el bien de la colonia, sacrificando su propia individualidad para el éxito del grupo.
En los Borg este concepto se lleva al extremo y se propone como la única vía posible para la supervivencia y la evolución.
La reina Borg tiene una capacidad única para coordinar toda la colonia y dirigir las acciones de los drones individuales de manera eficiente y precisa.
Los Borg en la filmografía y en la cultura popular
Los Borg aparecieron por primera vez en la serie de televisión «Star Trek: The Next Generation» en 1989 y desde entonces se han convertido en uno de los enemigos más icónicos del universo de Star Trek.
Yo soy el principio y el fin. El uno y lo múltiple. Yo soy los Borg
Esta frase, pronunciada por la reina Borg, resume el enorme poder y la alta consideración de sí mismo que tiene el pueblo Borg, representado por su propia reina.
Intentemos ahora salir del mundo de los Borg y reflexionar sobre cómo esta metáfora puede aplicarse al mundo del desarrollo de software y sobre cuánto nos estamos convirtiendo, inevitablemente, en Borg del desarrollo de software.
El amanecer de la asimilación: la era de la IA generativa en el desarrollo de software
Si hasta hace pocos años la relación entre desarrollador y herramienta de software era clara y definida, con el humano que concebía la lógica y escribía el código que la máquina ejecutaba, con la llegada de la IA generativa la máquina ha invertido esta dinámica.
Lo que antes era código escrito por el hombre, ahora es generado por modelos de inteligencia artificial y, con el tiempo, el volumen de código generado por la IA superará con creces al escrito por los humanos.
Este cambio altera radicalmente la perspectiva y el rol del programador es uno de esos trabajos destinados, necesariamente, a cambiar de manera radical.
La frase «La resistencia es inútil», pronunciada por el Colectivo Borg en el universo de Star Trek, ya no parece una amenaza distópica de una especie alienígena imaginaria, sino una descripción precisa de las actuales dinámicas de mercado y de las presiones operativas que pesan sobre los departamentos de ingeniería global.
Elegir utilizar una IA generativa, bajo cualquier forma: un chat, un agente, un sugeridor oculto en las líneas de un editor o un entorno de desarrollo, ya no es una opción opcional. Si antes se podía elegir a la ligera no utilizar una IA, ahora se vuelve cada vez más difícil. Esto transforma al programador en un híbrido, un ser que integra su propia capacidad cognitiva con la de un modelo de inteligencia artificial generativa.
Las motivaciones son concretas y no despreciables: desde la velocidad requerida por la empresa, hasta la mejora cuantitativa del código producido, pasando por la paralelización de acciones incluso ante la falta de personal. Estas no son presiones artificiales, sino demandas continuas del mercado moderno.
En un mercado global de la IA valorado en cientos de miles de millones de dólares (y la cifra continúa subiendo de manera impresionante), la infraestructura tecnológica se ha reconfigurado en torno a modelos centralizados que dictan el ritmo, el estilo y la sustancia de la producción de código.
Micron abandona a los particulares, Crucial ahora solo sirve a los grandes clientes de IA
Algunos gigantes del sector tecnológico ya están adaptando sus ofertas para servir exclusivamente a las necesidades de la IA, señalando un cambio paradigmático en el ecosistema del desarrollo de software: buscar un módulo de RAM o una unidad SSD en este periodo histórico para un uso personal se ha convertido casi en un lujo, que solo pueden permitirse algunas empresas hambrientas de manera voraz de recursos computacionales para alimentar sus modelos de inteligencia artificial.
Nos estamos moviendo, por tanto, hacia una era en la que el desarrollo de software necesita una integración profunda con la IA generativa, pero la IA generativa es gestionada por modelos de fundación centralizados que dictan las reglas del juego.

Anthropic, actualmente la herramienta más utilizada en el ámbito del desarrollo de software, tanto directa como indirectamente a través de las numerosas integraciones de sus modelos, ha declarado que prevé alcanzar el objetivo interno de una facturación anual de 9.000 millones de dólares para finales de 2025 y superar los 20.000 millones de dólares el año siguiente en el escenario base, con un potencial alza hasta los 26.000 millones de dólares.
Otros modelos como Gemini de Google y ChatGPT de OpenAI están siguiendo trayectorias de crecimiento similares, consolidando su dominio en el mercado de la IA generativa.
A estas pocas empresas estadounidenses podemos añadir algunos gigantes chinos, pero estamos hablando de todos modos de un oligopolio de pocos actores que controlan la mayor parte del mercado de la IA generativa.
Cuando se habla de IA para el desarrollo de software, los modelos que dominan el mercado son realmente pocos: es cierto que existen alternativas de código abierto, pero su calidad y capacidad aún están lejos de las de los modelos propietarios.
Los Borg y su reina
Al igual que los Borg dependen de su reina para coordinar las acciones del colectivo, los desarrolladores modernos se están volviendo cada vez más dependientes de los modelos de fundación centralizados para guiar su trabajo diario.
El riesgo de una adopción tan fuerte de la tecnología de IA generativa en el desarrollo de software es que se esté creando una dependencia estructural similar a la de los Borg, donde la individualidad y la competencia personal son sacrificadas en el altar de la eficiencia colectiva.
El problema de la descualificación afecta sobre todo a quien comienza la carrera delegando completamente la escritura de código a la IA, sin desarrollar nunca una comprensión profunda de los fundamentos. Un desarrollador senior que usa la IA para acelerar tareas repetitivas o generar boilerplate mantiene el control crítico sobre el proceso; un junior que nunca ha depurado manualmente un segmentation fault u optimizado una query lenta corre el riesgo de convertirse en un operador superficial, incapaz de intervenir cuando la IA falla o produce soluciones no óptimas. Con el tiempo, sin embargo, el problema puede manifestarse también en niveles más altos, cuando la dependencia de la IA se vuelve tan arraigada que erosiona la capacidad de pensamiento crítico y resolución de problemas autónoma.

El contexto económico de la asimilación
Según algunas estadísticas, la adopción de las herramientas de IA ha alcanzado ya una penetración del 90% entre los desarrolladores técnicos a nivel global, con un uso diario o semanal que supera el 80%. No estamos ante una novedad o un lujo, sino ante un componente esencial del flujo de trabajo técnico.
Las empresas están invirtiendo masivamente en infraestructuras de IA, tanto a nivel de software como, de manera impresionante, también a nivel de hardware con siempre nuevos y más potentes centros de datos: la ilusión de poder hacerlo solos se está desvaneciendo rápidamente. Existe un riesgo real de que los modelos de código abierto no logren mantener el ritmo con la velocidad de innovación y distribución de los modelos propietarios, llevando a una dependencia casi total de estos últimos.
Incluso cuando hay resistencia hacia el uso de la IA generativa, motivada por la calidad del software producido, esta se utiliza de todos modos para supervisar procesos, analizar datos, mejorar la producción de manuales y traducciones.
La reina Borg y el control cognitivo
La reina Borg no es una monarca política, es una entidad que tiene la orden de gobernar el caos. La reina filtra los pensamientos de los Borg y dirige su voluntad hacia la perfección.
Si lo pensamos, en el contexto del software esta función es asumida por los grandes modelos lingüísticos: entidades centralizadas que sugieren las mejores prácticas de programación, basándose en lo que han aprendido y que guían e influyen en decisiones arquitectónicas como el uso de Vue o Next.js, Python o Go, microservicios o monolitos.
A diferencia de la era del código abierto, donde el conocimiento se distribuía horizontalmente a través de foros, documentación y repositorios descentralizados, la era de la IA se caracteriza por una radical centralización.
Uso Zig porque lo ha dicho Claude Sonnet
Cuando un desarrollador interroga a la IA, no está accediendo a un conocimiento objetivo, sino a una síntesis probabilística derivada de los pesos del modelo central. Este modelo recuerda al Plexo Central Borg, la entidad en el centro del Cubo Borg, cuya tarea es agregar a todos sus drones y conectarse a las otras naves Borg.
Esta dinámica crea una dependencia crítica. Las decisiones sobre cómo estructurar una clase, qué librería utilizar o cómo gestionar la seguridad no son ya fruto de la deliberación individual o del debate entre pares, sino que son sugeridas (y a menudo aceptadas acríticamente) por el algoritmo central.
Por cómo están construidos los actuales LLM, entrenados sobre montañas de código público, es mucho más probable que surjan patrones ampliamente reconocidos y no enfoques de nicho o innovadores. El desarrollador-dron se convierte en un mero ejecutor de la voluntad algorítmica, un canal a través del cual un algoritmo logra manifestarse en el mundo físico.
¿Cuántas veces habéis borrado y reescrito el código generado por la IA porque «no era lo que queríais»? ¿Cuántas veces habéis aceptado pasivamente la sugerencia de la IA sin cuestionarla?
Si el número de veces en que habéis aceptado es superior al que habéis reescrito: he aquí, estáis a punto de ser asimilados.
Shadow AI y dependencia estructural
La centralización trae consigo el riesgo de lo que se define como «Shadow AI» e implementaciones no gobernadas. Al igual que la Reina puede dirigir a los Borg para tareas específicas, el uso no regulado de modelos LLM crea flujos de datos opacos dentro de las organizaciones: mirados individualmente pueden incluso parecer acciones correctas, pero faltando totalmente la visión de conjunto, las empresas pierden los límites de su propia soberanía y están sometidas a influencias externas incontrolables.
La pereza de los modelos
En los meses pasados se había hecho famoso un comportamiento de algunos modelos que se negaban a trabajar en ciertas tareas, limitando sus resultados o truncándolos: PÁNICO.
Muchos programadores, ya acostumbrados a externalizar su propio trabajo, se encontraron repentinamente lanzados al vacío cósmico del mundo sin IA. Ya no estaban listos para tener que enfrentarse autónomamente al compilador, a corregir bugs o a implementar nuevo código sin pedir ayuda a una máquina.
Este incidente puso de manifiesto cuánto la tendencia a delegar está minando la capacidad de muchos desarrolladores de operar de manera autónoma.
Estamos creando un riesgo sistémico cultural
Uno de los mayores temores, cuando se diseñan estructuras complejas, es el de tener un punto dentro de la arquitectura que, en caso de error, vaya a minar todo el proceso (hay quien piensa en AWS o Cloudflare en este momento y quien miente).
El riesgo real no es tanto técnico como cultural: si generaciones enteras de desarrolladores se acostumbran a aceptar sugerencias sin verificaciones rigurosas, si los pipelines CI/CD se convierten en trámites burocráticos impuestos, más que en barreras de calidad, si las code reviews se reducen a «la IA lo ha escrito así que estará bien», la calidad media del software podría degradare progresivamente.
Ciertamente existen defensas: tests automatizados, análisis estático del código, revisiones humanas. Pero estas defensas funcionan solo si son mantenidas por desarrolladores que comprenden profundamente qué están verificando. Si la comprensión fundamental es erosionada por la dependencia de la IA y quien genera el código es también quien lo verifica, el riesgo de un colapso sistémico aumenta.
Si el problema de las inyecciones SQL está tan ampliamente difundido a nivel mundial, ¿por qué pensamos que un LLM, entrenado sobre una montaña de código vulnerable, no pueda reproducir la misma vulnerabilidad que estadísticamente es el código más probable de generar?
La paradoja de la productividad
El principio rector de los Borg es la eficiencia absoluta. Creo haber hablado ya del problema de la eficiencia a toda costa, pero volver a hablar de ello nunca está de más. En el desarrollo de software mediante IA, hay una innegable ventaja medible: lo que antes requería una hora, ahora puede hacerse en minutos. Esta ganancia es real y valiosa.
Sin embargo, la naturaleza del tiempo ahorrado debe analizarse con atención. Antes el tiempo se dedicaba a la codificación y a los tests; ahora se dedica a comprender el código generado y a verificar que lo producido sea efectivamente conforme. Se ahorra tiempo en la fase de escritura, pero si consideramos el ciclo de vida completo del código, la ventaja puede reducirse significativamente.
Cada vez más desarrolladores se describen como vibecoder:
escribo un prompt y la IA hace todo por mí
La delegación de tareas de bajo nivel es una evolución natural de la informática, que siempre ha ido hacia la abstracción. El problema no es delegar por eficiencia, sino perder la capacidad de intervenir manualmente cuando sea necesario: actividades que tarde o temprano se presentarán, porque ningún modelo de inteligencia artificial es infalible.
Cuando el desarrollador deja de comprender los mecanismos subyacentes, pierde el contacto con la realidad operativa del software. Cuando se encuentre (y tarde o temprano sucederá) teniendo que resolver un problema complejo que la IA no logra gestionar, ya no tendrá las herramientas mentales para hacerlo y se encontrará frente a cientos de líneas de código que no comprende plenamente.
Como un dron Borg repara el casco sin comprender la física del viaje de curvatura, el desarrollador moderno corre el riesgo de convertirse en un operador superficial de una lógica que ya no controla.

¿Cuándo hay que tener miedo?
La dependencia es el mayor problema de toda tecnología: en un tiempo mis colegas me decían que sin Google no sabía ni siquiera encender el ordenador; en el futuro, si continuamos delegando de manera ciega e incoherente a las IAs, los programadores ya no sabrán escribir «Hello World», siempre que esta cosa tenga todavía algún sentido.
En 2025, sin embargo, observamos ya las señales de esta deriva: desarrolladores empiezan a sentirse bloqueados o lentos si no tienen a disposición GitHub Copilot por una interrupción del servicio:
Copilot está caído: vamos a tomarnos un café
No suena tan extraño, ¿verdad?
Superemos la lógica del Cubo Borg
La analogía con los Borg nos ofrece una forma fuera de los esquemas para examinar nuestra trayectoria tecnológica. Estamos construyendo un sistema de potencia excepcional, capaz de realizar tareas complejas con una velocidad superior a la de un humano. Por ahora estos sistemas son imperfectos, pero con el tiempo se volverán cada vez mejores y eficientes.
Aquí radica la paradoja fundamental: la adopción de la IA generativa es ya inevitable para quien quiere permanecer competitivo en el mercado laboral. La «resistencia» tradicional es realmente inútil. Pero cómo la adoptamos no está predeterminado.
La verdadera elección no es entre usar o no usar la IA, sino entre integración consciente y dependencia pasiva. Podemos convertirnos en como Siete de Nueve, el personaje de Star Trek que mantiene su propia identidad aun habiendo integrado tecnología Borg, o podemos ser simples drones sin voluntad crítica.
No perdamos la práctica de la programación, manteniendo un porcentaje de desarrollo libre de ayudas dadas por la IA para mantener las capacidades de resolución de problemas.
Revisemos el código comprendiendo su lógica: aceptar una pull request que no da error en los tests es una práctica no suficiente para aceptar código en la rama main.
No nos atemos a un solo producto, mezclando productos cerrados y de código abierto: poner en competencia más ideas no puede más que hacer bien a nuestros proyectos.
Si permitimos a los modelos centralizados dictar no solo la sintaxis, sino también la lógica y la ética de nuestro código, corremos el riesgo de despertarnos en un futuro en el que la programación sea solo escribir prompts cada vez más banales, mientras la IA arregla todo por nosotros.
La verdadera resistencia no es rechazar la tecnología, sino rechazar convertirse en operadores acríticos. En un mundo donde la inteligencia artificial impregna cada aspecto del desarrollo, la voz individual del desarrollador, imperfecta pero capaz de intuición y creatividad genuina, tiene todavía un valor insustituible.
Los datos de 2025 nos dicen que la asimilación ya está en marcha. La pregunta ya no es si nos convertiremos en híbridos humano-IA, sino cómo lo haremos manteniendo intacta nuestra capacidad crítica.
La historia de los Borg nos enseña que un colectivo puede ser perfecto, pero es también terribilmente silencioso y en el silencio la innovación muere.

