• redaccion@screenai.es
DeepSeek V4: qué es, qué sabemos y por qué puede cambiar el mercado de la IA en 2026

DeepSeek V4: qué es, qué sabemos y por qué puede cambiar el mercado de la IA en 2026

Todo lo que se sabe de forma verificable sobre DeepSeek V4: arquitectura Engram, chips Huawei, benchmarks filtrados, precios, retrasos y qué implica para desarrolladores y empresas.

En el mundo de la inteligencia artificial, los ciclos de hype van y vienen. Pero DeepSeek no es hype. Es un laboratorio chino que en enero de 2025 provocó una caída de un billón de dólares en bolsa cuando su modelo R1 igualó a GPT-4 en benchmarks clave, entrenado con una fracción del presupuesto de OpenAI o Google. Después llegó V3, que se convirtió en uno de los modelos de IA open source más usados del mundo.

Ahora llega DeepSeek V4. Lleva meses retrasándose, generando filtraciones y alimentando expectativas. A fecha de hoy, abril de 2026, aún no se ha lanzado oficialmente, pero todo apunta a que es inminente. Este artículo resume lo que se sabe de forma verificable, separando los datos reales de los rumores.

 

Qué es DeepSeek y por qué importa en el ecosistema de la inteligencia artificial

DeepSeek es un laboratorio de inteligencia artificial con sede en Hangzhou, China, fundado por Liang Wenfeng. A diferencia de OpenAI o Anthropic, que mantienen sus modelos cerrados y solo accesibles por API de pago, DeepSeek publica sus modelos como open source (típicamente con licencia Apache 2.0 o MIT). Cualquiera puede descargarlos, ejecutarlos en su propio hardware y modificarlos.

Lo que hizo relevante a DeepSeek fue demostrar que se pueden construir modelos competitivos con los mejores del mundo gastando una fracción del presupuesto y publicando los pesos abiertamente. Esto rompió con varias narrativas establecidas: que solo Silicon Valley podía producir modelos frontera, que hacía falta gastar cientos de millones en entrenamiento, y que las restricciones de chips estadounidenses iban a frenar a China en IA.

DeepSeek V3, lanzado en diciembre de 2024, se convirtió en una referencia en el espacio open source. Su modelo de razonamiento R1 (enero 2025) amplificó el impacto. V4 es la siguiente generación y la más ambiciosa hasta la fecha.

 

Qué es DeepSeek V4 y qué lo diferencia de V3

DeepSeek V4 es el próximo modelo flagship de DeepSeek. Según reportes de Reuters, Financial Times y TechNode, es un modelo multimodal nativo (texto, imagen y vídeo) basado en una arquitectura Mixture of Experts (MoE) con aproximadamente 1 billón de parámetros totales, de los cuales solo unos 37.000 millones se activan por cada token generado.

Eso significa que, aunque el modelo tiene acceso a una cantidad enorme de conocimiento, en la práctica consume recursos similares a un modelo de 37B parámetros. Es el mismo principio que usa Google en Gemma, pero a una escala 40 veces mayor.

Las diferencias clave respecto a V3:

  • Multimodalidad nativa: V4 genera texto, imagen y vídeo. V3 era solo texto.
  • Ventana de contexto de 1 millón de tokens: V3 llegaba a 128K. V4 multiplica eso por 8.
  • Engram: una nueva arquitectura de memoria condicional que cambia cómo el modelo almacena y recupera información.
  • Optimizado para chips chinos: V4 está diseñado para correr sobre hardware Huawei, no NVIDIA.
 

Cuándo se lanza DeepSeek V4 (estado real a abril de 2026)

La cronología de DeepSeek V4 ha sido una sucesión de expectativas rotas. Aquí está la línea temporal verificable:

Enero 2026

Reuters reporta que DeepSeek planea lanzar V4 en febrero, coincidiendo con el Año Nuevo Chino (17 de febrero). El modelo estaría enfocado en coding. DeepSeek publica el paper de Engram (13 de enero), que la comunidad conecta inmediatamente con la arquitectura de V4.

Febrero 2026

DeepSeek amplía silenciosamente la ventana de contexto de sus modelos existentes a 1 millón de tokens. La comunidad lo interpreta como infraestructura de V4 entrando en producción. No hay lanzamiento. Reuters reporta que DeepSeek ha dado acceso anticipado a V4 a fabricantes de chips chinos (Huawei, Cambricon), excluyendo a NVIDIA y AMD.

Marzo 2026

Un modelo anónimo aparece en OpenRouter como "Hunter Alpha". La comunidad especula que es V4, pero resulta ser MiMo-V2-Pro de Xiaomi. Medios chinos reportan una actualización en el sitio de DeepSeek que llaman "V4 Lite". TechNode dice que fuentes internas esperan el lanzamiento esa semana. No ocurre.

Abril 2026 (ahora)

El 8 de abril, DeepSeek introduce "Fast Mode" y "Expert Mode" en su interfaz. Expert Mode muestra mejor rendimiento en razonamiento complejo. Capturas filtradas revelan un tercer modo "Vision" en pruebas. Reuters confirma (4 de abril) que V4 corre sobre chips Ascend 950PR de Huawei. Dataconomy y 36kr confirman que V4 está programado para abril.

Estimación más creíble: últimas dos semanas de abril de 2026. Pero DeepSeek no ha confirmado nada oficialmente. La API de DeepSeek todavía no lista un model ID para V4.

 

Qué novedades técnicas trae DeepSeek V4: Engram, DSA y multimodalidad

Las innovaciones de V4 vienen respaldadas por papers publicados por el equipo de DeepSeek. No son rumores.

Engram: memoria condicional para modelos de lenguaje

Publicado en enero de 2026 ("Conditional Memory via Scalable Lookup"), Engram introduce un módulo de memoria separado del transformer principal. La idea: hay información que el modelo recupera constantemente (hechos, entidades, patrones conocidos) y que no necesita pasar por todo el mecanismo de atención cada vez. Engram la almacena aparte y la recupera en tiempo constante.

Un ejemplo simple: la frase "Nueva York" aparece constantemente. Un transformer estándar tiene que recalcular la relación entre "Nueva", "York" y su significado como entidad cada vez que la encuentra. Engram almacena esa asociación por separado y la sirve instantáneamente, liberando capacidad de cómputo para el razonamiento real.

Detalle importante: la memoria de Engram puede residir en RAM de CPU, no necesariamente en la GPU. Esto reduce el cuello de botella de VRAM y abre la puerta a modelos más eficientes en hardware limitado.

DeepSeek Sparse Attention (DSA)

Un mecanismo de atención dispersa que reduce la complejidad computacional de O(L^2) a O(L*k), donde L es la longitud del contexto y k es un factor constante. En la práctica, esto permite procesar contextos de más de 1 millón de tokens sin que el coste computacional se dispare. Según los papers, DSA reduce el coste de atención aproximadamente un 50%.

mHC (Manifold-Constrained Hyper-Connections)

Publicado en diciembre de 2025, optimiza cómo fluye la información entre las capas del transformer. Mejora la estabilidad del entrenamiento y la utilización de capacidad del modelo en tareas complejas de razonamiento.

Multimodalidad nativa

V4 procesa y genera texto, imagen y vídeo de forma nativa. No es un modelo de texto con un módulo visual añadido encima. Financial Times lo describe como un modelo con capacidades completas de generación multimodal. Esto lo pone al nivel de GPT-5 y Gemini, pero en open source.

Auto-verificación

DeepSeek V4 usa modelos verificadores separados que evalúan los pasos intermedios de razonamiento. Esto ayuda a reducir alucinaciones y errores lógicos, especialmente en tareas de código donde una respuesta incorrecta es fácil de detectar.

 

DeepSeek V4 vs Claude, GPT-5 y Gemini: qué dicen los benchmarks filtrados

Los benchmarks de V4 son auto-reportados por DeepSeek y no han sido verificados de forma independiente. Hay que tratarlos con escepticismo hasta que haya evaluaciones externas.

Benchmark DeepSeek V4 (filtrado) Claude Opus 4.5 GPT-5.2
HumanEval (coding) ~90% ~88% ~87%
SWE-bench Verified (bugs reales) 80-81% 80.9% (líder actual) ~75%
Context recall a 128K tokens 94% (V4-Lite) N/D N/D

El benchmark clave es SWE-bench Verified, porque mide la capacidad de resolver bugs reales en repositorios de código. Si V4 confirma un 80%+ de forma independiente, sería el primer modelo de IA open source en alcanzar ese nivel.

Para contexto: DeepSeek V3.2 ya había demostrado rendimiento de medalla de oro en competiciones internacionales de programación (IOI e ICPC World Finals) sin entrenamiento específico. V4 debería superar eso ampliamente.

Nota importante: estos números no están verificados por terceros. Hasta que no haya evaluaciones independientes, son solo las cifras que reporta DeepSeek. Tratar como orientativos, no como hechos confirmados.

 

Cuánto cuesta usar DeepSeek V4 (precios filtrados vs la competencia)

DeepSeek siempre ha sido el modelo más barato del mercado en su categoría. V3 costaba $0,28 por millón de tokens de input. Las filtraciones de pricing para V4 apuntan a aproximadamente $0,30 por millón de tokens de input.

Modelo Input (por millón de tokens) Open source
DeepSeek V4 (filtrado) ~$0,30 Sí (Apache 2.0 esperado)
Claude Opus $15,00 No
GPT-5 $10,00 - $15,00 No
DeepSeek V3 $0,28

Si estos números se confirman, DeepSeek V4 ofrecería rendimiento cercano a Claude Opus a un coste 50 veces menor por API. En cargas de trabajo de producción, eso puede significar la diferencia entre pagar $2.000 al mes o $40.

Además, al publicarse con pesos abiertos (Apache 2.0 esperado), se puede descargar y ejecutar en hardware propio sin pagar nada a DeepSeek. El coste es solo tu infraestructura. Esto es especialmente relevante para empresas que necesitan mantener los datos en sus propios servidores por cumplimiento normativo (GDPR, por ejemplo).

 

Por qué DeepSeek V4 corre en chips Huawei y no en NVIDIA

Este es posiblemente el aspecto más significativo de V4 desde el punto de vista geopolítico y de industria.

Reuters confirmó el 4 de abril de 2026 que DeepSeek V4 está optimizado para los chips Ascend 950PR de Huawei. DeepSeek excluyó deliberadamente a NVIDIA y AMD del acceso anticipado al modelo, dando esa ventana exclusivamente a fabricantes de chips chinos.

Qué implica esto:

  • Primer modelo frontera sin NVIDIA. Todos los demás modelos líderes (GPT-5, Claude, Gemini) se entrenan y ejecutan sobre GPUs NVIDIA. V4 sobre Huawei desafía esa dependencia.
  • Cuestiona la estrategia de sanciones de EEUU. Las restricciones de exportación de chips a China asumían que sin hardware NVIDIA, China no podría construir modelos competitivos. Si V4 funciona bien sobre Huawei, esa asunción se debilita.
  • DeepSeek ha reescrito código. Han sustituido partes del ecosistema CUDA de NVIDIA por la arquitectura CANN de Huawei. También desarrollan variantes de V4 para GPUs de consumo chinas.
  • Demanda masiva de chips Huawei. Alibaba, ByteDance y Tencent han realizado pedidos masivos de chips Ascend 950PR. Los precios han subido un 20% en semanas.

Hay un matiz importante: los primeros intentos de entrenar sobre Huawei, según Financial Times, encontraron problemas de estabilidad y velocidad de interconexión entre chips. Parte de los retrasos de V4 se atribuye a resolver estos problemas. No es que todo haya ido sobre ruedas.

 

Qué dice la comunidad sobre DeepSeek V4

La actividad en Reddit (r/DeepSeek, r/LocalLLaMA, r/SillyTavernAI) y foros chinos refleja tres posiciones:

Los optimistas creen que V4 va a repetir el impacto de R1 y V3. Esperan rendimiento cercano a Claude Opus a una fracción del coste, y muchos desarrolladores que ya usan V3 en producción dicen que cambiarán en cuanto salga. El hype en r/LocalLLaMA es alto, con posts acumulando cientos de votos y títulos tipo "DeepSeek is in labour and giving birth to V4 now" (194 votos) y "DeepSeek V4 release soon" (3.900 votos en r/ChatGPT).

Los escépticos señalan que los benchmarks son auto-reportados, que el modelo lleva meses de retraso, y que la transición a chips Huawei puede haber forzado compromisos en rendimiento. Algunos testers del "Expert Mode" actual reportan respuestas más neutras o inconsistentes. Un usuario resume: "si esto es DeepSeek V4, no está a la altura del hype".

Los pragmáticos esperan benchmarks independientes antes de migrar cargas de trabajo. La posición más sensata: prepara tu infraestructura para probar V4 cuando salga (usa un patrón de router de modelos donde cambiar de proveedor sea un cambio de configuración, no de código), pero no migres nada hasta que haya evaluaciones de terceros.

 

Qué significa DeepSeek V4 para empresas y desarrolladores

Si V4 cumple lo que prometen las filtraciones, las implicaciones son concretas:

Para desarrolladores: un modelo open source que compite con Claude y GPT-5 en coding, ejecutable en hardware propio, a un coste por API 50 veces menor. Esto cambia el cálculo económico de cualquier producto que use IA como backend. Si tu startup gasta $2.000 al mes en API de OpenAI, V4 podría reducirlo a $40 con rendimiento comparable.

Para empresas europeas: un modelo open source potente plantea una alternativa para quienes quieren control total sobre los datos (GDPR). Ejecutar el modelo en tu infraestructura significa que los datos del usuario no salen de tu servidor. Pero hay que considerar que las regulaciones chinas imponen restricciones en el modelo (censura en temas políticamente sensibles para China) que pueden o no afectar a tu caso de uso.

Para el mercado en general: si DeepSeek demuestra que un modelo frontera puede correr sin NVIDIA y publicarse open source a precios de derribo, la presión sobre los modelos cerrados se intensifica. No es que Claude o GPT vayan a desaparecer (tienen ecosistemas, soporte empresarial y fiabilidad probada), pero el argumento de que la IA buena tiene que ser cara y cerrada se debilita con cada modelo que DeepSeek publica.

Para quienes ejecutan modelos localmente: DeepSeek afirma que V4 puede correr en hardware de consumo (dos RTX 4090 o una RTX 5090 para la versión cuantizada). Si esto se confirma, sería el modelo más potente ejecutable en una estación de trabajo. Para entornos air-gapped o con requisitos de privacidad estrictos, esto es significativo.

 

DeepSeek V4 merece la atención que está recibiendo en 2026

DeepSeek V4 no es solo una mejora incremental sobre V3. Es un intento de demostrar tres cosas a la vez: que un modelo de IA open source puede competir con los mejores cerrados, que se puede entrenar y ejecutar sin hardware occidental, y que el coste de la IA frontera puede ser una fracción de lo que cobra el mercado actual.

Aún no ha salido. Los benchmarks no están verificados. Los retrasos generan dudas legítimas. Pero si cumple incluso una parte de lo que apuntan las filtraciones, va a obligar a todo el sector a reaccionar. Y eso, independientemente de si usas DeepSeek o no, es bueno para la competencia y bueno para los precios.

La evolución de la inteligencia artificial ya no depende solo de crear modelos más grandes. El equilibrio entre coste, rendimiento y acceso abierto va a definir a los líderes del sector en los próximos años. DeepSeek V4 puede ser el modelo que obligue a todos a jugar con esas reglas.

Artículos relacionados

Próximamente en ScreenAI.es: comparativa técnica DeepSeek V4 vs Claude Opus 4.5 vs GPT-5 cuando se publiquen benchmarks independientes, y guía práctica para ejecutar DeepSeek en hardware propio.

Pulsa Enter para buscar o Esc para cerrar