5 min lectura
DeepSeek planea lanzar su modelo V4 a mediados de febrero, y si las pruebas internas son indicativas, los gigantes de IA de Silicon Valley deberían estar nerviosos.
La startup de IA con sede en Hangzhou podría estar apuntando a un lanzamiento alrededor del 17 de febrero—Año Nuevo Lunar, naturalmente—con un modelo específicamente diseñado para tareas de codificación, según The Information. Personas con conocimiento directo del proyecto afirman que V4 supera tanto a Claude de Anthropic como a la serie GPT de OpenAI en benchmarks internos, particularmente al manejar prompts de código extremadamente largos.
Por supuesto, no se ha compartido públicamente ningún benchmark o información sobre el modelo, por lo que es imposible verificar directamente tales afirmaciones. DeepSeek tampoco ha confirmado los rumores.
Sin embargo, la comunidad de desarrolladores no está esperando una palabra oficial. Los subreddits r/DeepSeek y r/LocalLLaMA de Reddit ya se están calentando, los usuarios están acumulando créditos de API, y los entusiastas en X han compartido rápidamente sus predicciones de que V4 podría cementar la posición de DeepSeek como el desvalido luchador que se niega a jugar según las reglas de miles de millones de dólares de Silicon Valley.
Esta no sería la primera disrupción de DeepSeek. Cuando la empresa lanzó su modelo de razonamiento R1 en enero de 2025, desencadenó una liquidación de $1 billón en los mercados globales.
¿La razón? El R1 de DeepSeek igualó al modelo o1 de OpenAI en benchmarks de matemáticas y razonamiento a pesar de que supuestamente costó solo $6 millones desarrollarlo—aproximadamente 68 veces más barato que lo que estaban gastando los competidores. Su modelo V3 posteriormente alcanzó un 90,2% en el benchmark MATH-500, superando ampliamente el 78,3% de Claude y la reciente actualización "V3.2 Speciale" mejoró aún más su rendimiento.
Imagen: DeepSeek
El enfoque de codificación de V4 sería un giro estratégico. Mientras que R1 enfatizaba el razonamiento puro—lógica, matemáticas, pruebas formales—V4 es un modelo híbrido (tareas de razonamiento y no razonamiento) que apunta al mercado empresarial de desarrolladores donde la generación de código de alta precisión se traduce directamente en ingresos.
Para reclamar el dominio, V4 necesitaría superar a Claude Opus 4.5, que actualmente tiene el récord de SWE-bench Verified con 80,9%. Sin embargo, si los lanzamientos pasados de DeepSeek son una guía, esto puede no ser imposible de lograr incluso con todas las restricciones que enfrentaría un laboratorio de IA chino.
Asumiendo que los rumores son ciertos, ¿cómo puede este pequeño laboratorio lograr tal hazaña?
El arma secreta de la empresa podría estar contenida en su artículo de investigación del 1 de enero: Manifold-Constrained Hyper-Connections, o mHC. Coescrito por el fundador Liang Wenfeng, el nuevo método de entrenamiento aborda un problema fundamental en el escalado de large language models—cómo expandir la capacidad de un modelo sin que se vuelva inestable o explote durante el entrenamiento.
Las arquitecturas tradicionales de IA fuerzan toda la información a través de un único camino estrecho. mHC amplía ese camino en múltiples flujos que pueden intercambiar información sin causar colapso en el entrenamiento.
Imagen: DeepSeek
Wei Sun, analista principal de IA en Counterpoint Research, llamó a mHC un "avance sorprendente" en comentarios a Business Insider. La técnica, señaló, muestra que DeepSeek puede "eludir los cuellos de botella computacionales y desbloquear saltos en inteligencia", incluso con acceso limitado a chips avanzados debido a las restricciones de exportación estadounidenses.
Lian Jye Su, analista jefe en Omdia, destacó que la disposición de DeepSeek para publicar sus métodos señala una "nueva confianza en la industria de IA china". El enfoque de código abierto de la empresa la ha convertido en la favorita entre los desarrolladores que la ven como la encarnación de lo que OpenAI solía ser, antes de que girara hacia modelos cerrados y rondas de recaudación de fondos de miles de millones de dólares.
No todos están convencidos. Algunos desarrolladores en Reddit se quejan de que los modelos de razonamiento de DeepSeek desperdician capacidad computacional en tareas simples, mientras que los críticos argumentan que los benchmarks de la empresa no reflejan el desorden del mundo real. Una publicación de Medium titulada "DeepSeek Apesta—Y Ya Terminé de Fingir Que No" se viralizó en abril de 2025, acusando a los modelos de producir "tonterías estándar con errores" y "bibliotecas alucinadas".
DeepSeek también carga con bagaje. Las preocupaciones sobre privacidad han plagado a la empresa, con algunos gobiernos prohibiendo la aplicación nativa de DeepSeek. Los lazos de la empresa con China y las preguntas sobre censura en sus modelos agregan fricción geopolítica a los debates técnicos.
Sin embargo, el impulso es innegable. Deepseek ha sido ampliamente adoptado en Asia, y si V4 cumple sus promesas de codificación, la adopción empresarial en Occidente podría seguir.
Imagen: Microsoft
También está el momento. Según Reuters, DeepSeek había planeado originalmente lanzar su modelo R2 en mayo de 2025, pero extendió el plazo después de que el fundador Liang quedara insatisfecho con su rendimiento. Ahora, con V4 supuestamente apuntando a febrero y R2 potencialmente siguiendo en agosto, la empresa se está moviendo a un ritmo que sugiere urgencia—o confianza. Quizás ambas.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.