Design market

Accede a la Revista Byte TI Digital (PDF), pinchando aquí

Encontrarás un espacio diseñado para líderes como tú.

En los mercados de tecnología de punta, donde la innovación se suele asociar con presupuestos multimillonarios, arquitecturas de vanguardia y el último grito en semiconductores, la aparición de modelos como los de DeepSeek plantea una disonancia notable. China, bloqueada en el acceso a chips de alto rendimiento (HPC, según sus siglas en inglés) por parte de Estados Unidos desde 2022, no sólo no ha quedado rezagada en la carrera de la inteligencia artificial (IA), sino que ha sido capaz de lanzar modelos altamente competitivos, funcionales y con despliegues masivos a una fracción del coste establecido en Occidente.

¿Estamos ante una muestra de innovación forzada por las circunstancias o frente a una estrategia basada en la adaptación, la ingeniería inversa y el pragmatismo político-industrial? Quizá la respuesta esté en algún punto intermedio, pero lo que resulta evidente es que este fenómeno obliga a revisar las premisas con las que evaluamos progreso, escalabilidad y eficiencia en IA.

Desde octubre de 2022, las autoridades estadounidenses han impuesto controles específicos que restringen la exportación de chips de última generación -especialmente aquellos con alta capacidad de cómputo en operaciones de punto flotante (FLOPS) y ancho de banda de interconexión- hacia China y sus entidades asociadas. Entre los chips afectados se encuentran los H100 y A100 de NVIDIA, piezas clave en la arquitectura de entrenamiento e inferencia de modelos fundacionales como ChatGPT o Gemini.

En teoría, estas restricciones buscaban contener la expansión de las capacidades de IA de China, sobre todo en contextos de uso dual o militar. En la práctica, sin embargo, la respuesta ha sido una aceleración del desarrollo de una cadena de valor paralela, apoyada en fabricantes nacionales, arquitecturas optimizadas para uso local y modelos de monetización que priorizan el volumen de adopción por encima del margen por usuario.

DeepSeek, una empresa no cotizada de origen chino, ha ganado tracción en 2025 con el lanzamiento de una serie de modelos lingüísticos accesibles, precisos y extremadamente eficientes desde el punto de vista de cómputo. A diferencia de los modelos occidentales, que requieren grandes clústeres de entrenamiento sobre hardware especializado, DeepSeek ha apostado por arquitecturas más livianas, optimizadas para la inferencia sobre chips locales -probablemente basados en ASICs desarrollados junto a fabricantes como Huawei o SMIC- y una experiencia de usuario centrada en la funcionalidad, no en el asombro.

Esto ha permitido que su oferta entre en el espacio freemium con una agresividad difícil de igualar. La llamada penny gap -la caída en adopción al pasar de un coste nulo a uno mínimo, como 1 o 5 USD/mes- es evitada por completo, maximizando efectos de red, volumen de interacción y entrenamiento indirecto vía feedback del usuario.

A nivel técnico, el aspecto más notable del enfoque de DeepSeek no es la potencia de su pre-entrenamiento, sino la eficiencia en la inferencia. En los modelos de razonamiento -aquellos que no solo predicen palabras, sino que mantienen cadenas de lógica interna complejas y multicapas-, la inferencia representa hoy más del 50% del consumo total de recursos, superando al entrenamiento en términos de capex proyectado para el sector.

Este tipo de inferencia requiere tres elementos críticos:

1. FLOPS (Floating Point Operations per Second): potencia de cálculo bruta.

2. HBM (High Bandwidth Memory): para acceder y transferir rápidamente contexto e historial de tokens.

3. Interconnect (Interconexión de clústeres): vital para operaciones distribuidas y de baja latencia.

DeepSeek parece haber diseñado modelos que priorizan path efficiency (eficiencia de ruta en el grafo de atención), minimizando el uso de tokens por capa, reduciendo la dependencia del HBM, y limitando la necesidad de interconexión a través de clústeres complejos. Esto les permite instalar modelos robustos en hardware no tan avanzado, con costes operativos radicalmente inferiores. En otras palabras: optimizaron la arquitectura para el entorno que les dejaron disponible.

Queda la pregunta incómoda: ¿cuánto hay de innovación y cuánto de emulación? El historial de desarrollo tecnológico en China está plagado de casos donde el benchmarking intensivo roza la ingeniería inversa. DeepSeek no publica pesos ni arquitectura, y aunque su desempeño en benchmarks es convincente, es difícil evaluar si han partido de cero o han reciclado modelos como LLaMA o Falcon mediante tuning fino.

Pero incluso si se tratase de una réplica parcial, la capacidad de hacerla escalar de forma eficiente y a bajo coste tiene un mérito técnico incuestionable. A fin de cuentas, construir el “mismo avión” con materiales más baratos y sin acceso a motores de última generación, sigue siendo un acto de ingeniería respetable.

La aparición de DeepSeek también anticipa una bifurcación del ecosistema de IA. Si cada bloque geopolítico (EEUU, China, Europa) desarrolla sus propios modelos, chips, API y marcos regulatorios, podríamos encontrarnos ante una “Guerra Fría de plataformas”. Esto encarece la interoperabilidad, duplica las infraestructuras y fragmenta la innovación, pero también fuerza a los desarrolladores a pensar en resiliencia, independencia y eficiencia.

Los hyperscalers occidentales, por su parte, están respondiendo con la adopción de ASICs personalizados, diseñados en colaboración con Broadcom, Marvell o incluso diseñados internamente (como los TPUs de Google o los Trainium de Amazon). La transición de las GPU (los “Ferraris” del cómputo) a los ASICs (los “Toyotas”) es una tendencia estructural, y DeepSeek, irónicamente, podría ser uno de sus catalizadores indirectos.

El caso DeepSeek es paradigmático porque reconfigura las métricas de éxito en IA. No se trata solo de tener los mejores modelos, sino de hacerlos llegar a más personas, a menor coste, y con la suficiente calidad para resolver tareas del 80% de la población. En ese sentido, el modelo chino plantea preguntas incómodas al statu quo occidental: ¿estamos sobre-optimizando benchmarks que no importan? ¿Estamos persiguiendo lo perfecto a costa de lo útil?

La respuesta, como siempre en tecnología, no es binaria. Pero si algo demuestra DeepSeek es que la escasez -bien gestionada- puede ser tan fértil como el exceso de recursos. Además de otra premisa rotunda: en un mundo de sobreabundancia de modelos, quien logre hacer más con menos, tal vez sea quien acabe liderando la verdadera revolución de la IA.

Lo siento, debes estar conectado para publicar un comentario.

Utilizamos cookies para ofrecerte la mejor experiencia en nuestra web.

Puedes aprender más sobre qué cookies utilizamos o desactivarlas en los ajustes.

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Las cookies estrictamente necesarias tiene que activarse siempre para que podamos guardar tus preferencias de ajustes de cookies.

Las cookies de marketing se utilizan para hacer un seguimiento de los visitantes de las páginas web. La intención es mostrar anuncios relevantes y atractivos para el usuario individual, haciéndolos más valiosos para editores y anunciantes terceros.

Las cookies analíticas ayudan a los propietarios de sitios web a comprender cómo interactúan los visitantes con los sitios web, recopilando y proporcionando información de forma anónima.

Más información sobre nuestra política de cookies