La publicación DeepSeek V4 rumoreado superar a ChatGPT y Claude en codificación de contexto largo apareció en BitcoinEthereumNews.com. Se rumorea que DeepSeek V4 superará a ChatGPTLa publicación DeepSeek V4 rumoreado superar a ChatGPT y Claude en codificación de contexto largo apareció en BitcoinEthereumNews.com. Se rumorea que DeepSeek V4 superará a ChatGPT

Se rumorea que DeepSeek V4 supera a ChatGPT y Claude en codificación de contexto largo

Se rumorea que DeepSeek V4 superará a ChatGPT y Claude en codificación de contexto largo, dirigiéndose a tareas de codificación de nivel élite. Personas internas afirman que el panorama de IA de Silicon Valley debería preocuparse si las pruebas internas insinúan su rendimiento esperado después del lanzamiento a mediados de febrero.

La startup de IA con sede en China, DeepSeek, supuestamente planea lanzar DeepSeek V4, su último modelo de lenguaje grande, el 17 de febrero. Personas familiarizadas con el asunto afirman que el modelo está preparado para eclipsar a los modelos de lenguaje grandes existentes, como ChatGPT de OpenAI y Claude de Anthropic, al manejar indicaciones y tareas de código de contexto largo.

Los desarrolladores expresan profunda anticipación por el lanzamiento de DeepSeek V4

La compañía china no ha revelado públicamente ninguna información sobre el lanzamiento inminente ni ha confirmado los rumores al momento de escribir esto. Los desarrolladores en diferentes redes sociales han expresado profunda anticipación por el lanzamiento. Yuchen Jin, un desarrollador de IA y cofundador de Hyperbolic Labs, escribió en X que "se rumorea que DeepSeek V4 se lanzará pronto, con una codificación más fuerte que Claude y GPT".

El subreddit r/DeepSeek también se calentó, con un usuario explicando que su obsesión con el inminente modelo V4 de DeepSeek no era normal. El usuario dijo que frecuentemente "revisa noticias, posibles rumores, e incluso leo los Docs en el sitio web de DS para buscar cualquier cambio o señal que indique una actualización".

Los lanzamientos anteriores de DeepSeek han tenido un impacto significativo en los mercados globales. La startup de IA china lanzó su modelo de razonamiento R1 en enero de 2025, provocando una venta masiva de un billón de dólares. El lanzamiento igualó el modelo 01 de OpenAI en puntos de referencia de matemáticas y razonamiento, a pesar de costar significativamente menos de lo que la startup de IA estadounidense gastó en su modelo 01. 

La compañía china supuestamente gastó solo $6 millones en el lanzamiento del modelo. Mientras tanto, los competidores globales gastan casi 70 veces más por el mismo resultado. Su modelo V3 también registró una puntuación del 90.2% en el punto de referencia MATH-500, en comparación con el 78.3% de Claude. La actualización más reciente V3 de DeepSeek (V3.2 Speciale) mejoró aún más su productividad.

El punto de venta de su modelo V4 ha evolucionado del énfasis del V3 en el razonamiento puro, las pruebas formales y las matemáticas lógicas. Se espera que el nuevo lanzamiento sea un modelo híbrido que combine tareas de razonamiento y no razonamiento. El modelo tiene como objetivo capturar el mercado de desarrolladores llenando un vacío existente que demanda alta precisión y generación de código de contexto largo.

Claude Opus 4.5 actualmente reclama dominio en el punto de referencia SWE, logrando una precisión del 80.9%. El V4 necesita superar esto para destronar a Claude Opus 4.5. Basándose en éxitos anteriores, el modelo entrante puede superar este umbral y reclamar el dominio en el punto de referencia.

DeepSeek es pionero en mHC para entrenar LLMs

El éxito de DeepSeek ha dejado a muchos en profunda incredulidad profesional. ¿Cómo podría una compañía tan pequeña lograr tales hitos? El secreto podría estar profundamente arraigado en su documento de investigación publicado el 1 de enero. La compañía identificó un nuevo método de entrenamiento que permite a los desarrolladores escalar fácilmente modelos de lenguaje grandes. Liang Wenfeng, fundador y CEO de DeepSeek, escribió en la investigación que la compañía está utilizando Hyper-Connections con Restricción de Múltiple (mHC) para entrenar sus modelos de IA. 

El ejecutivo propuso usar mHC para abordar los problemas encontrados cuando los desarrolladores entrenan modelos de lenguaje grandes. Según Wenfeng, mHC es una actualización de Hyper-Connections (HC), un marco que otros desarrolladores de IA utilizan para entrenar sus modelos de lenguaje grandes. Explicó que HC y otras arquitecturas de IA tradicionales fuerzan todos los datos a través de un solo canal estrecho. Al mismo tiempo, mHC amplía ese camino en múltiples canales, facilitando la transferencia de datos e información sin causar colapso en el entrenamiento. 

Lian Jye Su, analista principal en Omdia, elogió al CEO Wenfeng por publicar su investigación. Su enfatizó que la decisión de DeepSeek de publicar sus métodos de entrenamiento dicta una confianza renovada en el sector de IA chino. DeepSeek ha dominado el mundo en desarrollo. Microsoft publicó un informe el jueves, mostrando que DeepSeek controla el 89% del mercado de IA de China y ha estado ganando impulso en países en desarrollo.

¿Quiere que su proyecto esté frente a las mentes más importantes de las criptomonedas? Preséntelo en nuestro próximo informe de la industria, donde los datos se encuentran con el impacto.

Fuente: https://www.cryptopolitan.com/deepseek-v4-chatgpt-and-claude/

Oportunidad de mercado
Logo de Belong
Precio de Belong(LONG)
$0.004135
$0.004135$0.004135
-3.45%
USD
Gráfico de precios en vivo de Belong (LONG)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.