DeepSeek-V3.1 Lanzado: El Primer Paso Hacia la Era de los Agentes (Guía Rápida + Claves)
DeepSeek-V3.1 Lanzado: El Primer Paso Hacia la Era de los Agentes (Guía Rápida + Claves)
El 21 de agosto, DeepSeek lanzó oficialmente DeepSeek-V3.1. Esta generación introduce mejoras importantes en razonamiento híbrido (modos pensante/no pensante), eficiencia y capacidades de cadena de herramientas para Agentes. La actualización ya está disponible en la App oficial y el cliente web (con un nuevo botón de "Pensamiento Profundo"). Para el uso de la API, deepseek-chat
corresponde al modo no pensante, mientras que deepseek-reasoner
es el modo pensante, ambos ahora con soporte para una ventana de contexto de 128K. Además, se introduce Function Calling estricto (Beta) y compatibilidad con la API de Anthropic, facilitando la integración con ecosistemas como Claude Code.
Cambios Clave en V3.1
- Arquitectura de razonamiento híbrido: Un modelo, dos modos—cambia libremente entre "pensante" y "no pensante".
- Ganancias en eficiencia: 20%–50% menos tokens en promedio en modo pensante, manteniendo un rendimiento comparable a R1-0528.
- Mayores capacidades de Agente: Mejoras significativas en codificación, tareas de terminal y búsqueda de múltiples pasos.
- Funciones amigables para desarrolladores: Ventana de contexto de 128K, Function Calling estricto (Beta), compatibilidad con la API de Anthropic, acceso a API más fluido y escalable.
Resultados en Benchmark de Agentes: Gran Mejora en Codificación y Búsqueda
Los benchmarks públicos muestran fuertes avances tanto en agentes de programación como en agentes de búsqueda:
- SWE Verified (modo Agente): V3.1 66.0 vs R1-0528 44.6
- Terminal-bench (Terminus 1): V3.1 31.3 vs R1-0528 5.7
- BrowseComp (búsqueda de múltiples pasos): V3.1-Think 30.0 vs R1-0528 8.9
- HLE (desafíos multidisciplinarios de nivel experto): V3.1-Think 29.8 vs R1-0528 24.8
Esto indica un uso más confiable de herramientas y razonamiento más profundo para tareas basadas en búsqueda.
Eficiencia en Razonamiento: Cadenas Más Cortas, Misma Precisión
Mediante entrenamiento de compresión de cadena de pensamiento, V3.1-Think reduce 20%–50% de tokens por salida manteniendo resultados similares a R1-0528. Por ejemplo:
- AIME 2025: 88.4 vs 87.5
- GPQA: 80.1 vs 81
- liveCodeBench: 74.8 vs 73.3
En la práctica, esto significa menor latencia y costo sin sacrificar precisión en el razonamiento.
5 Cosas Que los Desarrolladores Deben Saber
Elegir el modelo correcto
Usadeepseek-chat
para tareas rápidas y ligeras; usadeepseek-reasoner
para razonamiento complejo. Ambos soportan contexto de 128K.Function Calling estricto (Beta)
Configurabase_url=https://api.deepseek.com/beta
, añadestrict: true
en el esquema. El servidor aplicará validación de esquema, asegurando que las salidas cumplan estrictamente.Compatibilidad con la API de Anthropic
ConfiguraANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
para llamar a los modelos de DeepSeek directamente en Claude Code y otros SDK basados en Anthropic.Actualizaciones de código abierto y precisión
- Modelos lanzados: Tanto los pesos Base como los post-entrenados (disponibles en Hugging Face y ModelScope).
- Preentrenamiento extendido: +840B tokens adicionales sobre V3 para mayor contexto y estabilidad.
- Precisión: UE8M0 FP8 Scale, con actualización del tokenizador y plantilla de chat (requiere migración).
Cambios en precios y políticas
A partir del 6 de septiembre de 2025 (hora de Pekín), entrará en vigor un nuevo plan de precios y se eliminarán los descuentos nocturnos. Hasta entonces, los precios actuales siguen vigentes.
Comienzo Rápido en 15 Minutos
- Elige tu modo: Usa
deepseek-chat
para eficiencia,deepseek-reasoner
para razonamiento profundo con 128K. - Activa Function Calling estricto (opcional): Define herramientas con esquema estricto para evitar llamadas inválidas.
- Integración sin problemas: Cambia la URL base en Claude Code/Anthropic SDK para adoptarlo al instante.
Casos de Uso Recomendados
- Agentes de recuperación: Flujos de búsqueda → filtrado → síntesis.
- Asistentes de DevOps y codificación: Correcciones de código, parches, scripting, tareas de línea de comandos.
- Conversaciones largas con control de costos: 128K + razonamiento comprimido = profundidad de contexto con menor gasto.
Preguntas Frecuentes
P1: ¿Cómo cambio entre modos pensante y no pensante?
En la App/web, haz clic en el botón "Pensamiento Profundo"; en la API, usa diferentes nombres de modelo o plantillas.
P2: ¿Cuál es el valor de Function Calling estricto?
Garantiza salidas que cumplen el esquema, reduciendo errores de formato—ideal para Agentes listos para producción.
P3: ¿Puedo integrarme con Anthropic/Claude Code?
Sí. Solo configura ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
y la API Key.
P4: ¿Qué hay de nuevo en el lanzamiento de código abierto de V3.1?
Tanto los modelos Base como los post-entrenados son de código abierto, con +840B tokens de entrenamiento extendido, precisión UE8M0 FP8 y un tokenizador/plantilla actualizados.
P5: ¿Cuándo entrará en vigor el nuevo plan de precios?
6 de septiembre de 2025 (hora de Pekín). Se eliminarán los descuentos nocturnos, pero las tarifas actuales seguirán vigentes hasta entonces.