DeepSeek-V3.2 & V3.2-Speciale: Una Guía Completa para Principiantes (Con Tutorial de API)
DeepSeek-V3.2 & V3.2-Speciale: Una Guía Completa para Principiantes (Con Tutorial de API)
DeepSeek acaba de sorprender a toda la comunidad de IA nuevamente—al lanzar dos nuevos modelos a la vez:
✔ DeepSeek-V3.2
✔ DeepSeek-V3.2-Speciale
Ambos modelos ya están disponibles en la interfaz web oficial, aplicación móvil y API.
DeepSeek-V3.2 ya es el modelo de producción predeterminado, mientras que la variante Speciale está actualmente disponible solo a través de un punto final de API temporal para pruebas de la comunidad.
Esta guía te llevará a través de:
- Qué hay de nuevo en ambos modelos
- Cómo usarlos en la web
- Cómo llamar a la API
- Dónde descargar los modelos
- Preguntas frecuentes clave para principiantes
1. ¿Qué hay de nuevo en DeepSeek-V3.2?
DeepSeek-V3.2 está diseñado para equilibrar el poder de razonamiento con una longitud de salida más corta, lo que lo hace altamente adecuado para:
- Preguntas y respuestas cotidianas
- Tareas generales de agentes de IA
- Programación y depuración
- Escenarios que requieren razonamiento rápido con mínima verbosidad
Aspectos Destacados
- Rendimiento de razonamiento a nivel de GPT-5 en benchmarks públicos
- Ligeramente por debajo de Gemini 3.0 Pro, pero extremadamente competitivo
- Salida mucho más corta que Kimi-K2-Thinking → menor costo + inferencia más rápida
- Optimizado para producción y casos de uso de alta frecuencia
DeepSeek-V3.2 es ahora el modelo recomendado para uso general.
2. ¿Qué hay de nuevo en DeepSeek-V3.2-Speciale?
DeepSeek-V3.2-Speciale es la edición mejorada en razonamiento de V3.2.
Combina:
- Arquitectura de DeepSeek-V3.2
- Capacidades de demostración de teoremas y lógica de DeepSeek-Math-V2
Para qué está diseñado
- Razonamiento en cadenas largas
- Pruebas matemáticas formales
- Tareas de lógica de múltiples pasos
- Seguimiento de instrucciones complejas
Rendimiento
En benchmarks de razonamiento convencionales, Speciale rinde a la par con Gemini-3.0-Pro.
Nota: El modelo es solo para API por ahora y está destinado a investigación y evaluación.
3. Prueba DeepSeek-V3.2 en la Web
Esta es la forma más fácil de comenzar a usar el nuevo modelo:
Pasos:
- Visita el sitio
- Inicia sesión
- Selecciona DeepSeek-V3.2
- Comienza a chatear
No se necesita configuración adicional.
4. Usando la API de DeepSeek (Ejemplos en Python y cURL)
DeepSeek utiliza puntos finales de API compatibles con OpenAI.
4.1 Ejemplo en Python
import requests
url = "https://api.deepseek.com/v1/chat/completions"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer YOUR_API_KEY"
}
data = {
"model": "deepseek-v3.2",
"messages": [
{"role": "user", "content": "Explain quantum mechanics in simple terms."}
]
}
response = requests.post(url, headers=headers, json=data)
print(response.json())4.2 Usando DeepSeek-V3.2-Speciale
Solo cambia el nombre del modelo:
"model": "deepseek-v3.2-speciale"4.3 Ejemplo de cURL
curl https://api.deepseek.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "deepseek-v3.2",
"messages": [{"role": "user", "content": "Write a short poem about winter."}]
}'5. Descargar los Modelos (HuggingFace & ModelScope)
DeepSeek-V3.2
HuggingFace: https://huggingface.co/deepseek-ai/DeepSeek-V3.2
ModelScope: https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.2
DeepSeek-V3.2-Speciale
HuggingFace: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
ModelScope: https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.2-Speciale
Estos modelos se pueden cargar utilizando Transformers, VLLM, Ollama o LM Studio dependiendo de tu hardware.
6. Elegir entre V3.2 y Speciale
| Tipo de Tarea | Modelo Recomendado |
|---|---|
| Preguntas y respuestas generales | V3.2 |
| Uso rápido y de bajo costo | V3.2 |
| Programación y depuración | V3.2 |
| Razonamiento profundo | Speciale |
| Pruebas matemáticas formales | Speciale |
| Lógica de múltiples pasos | Speciale |
Si no estás seguro, comienza con V3.2, luego cambia a Speciale para tareas de razonamiento más complejas.
FAQ
- ¿Es DeepSeek-V3.2 gratis para usar?
Puedes probarlo gratis en la plataforma web oficial. El uso de la API requiere créditos dependiendo de tu plan.
- ¿Por qué no se muestra el modelo Speciale en la interfaz del sitio web?
Speciale se ofrece actualmente solo como un modelo de API experimental, permitiendo a la comunidad evaluarlo y hacer pruebas.
- ¿En qué se diferencia V3.2 de versiones anteriores?
V3.2 mejora el razonamiento, reduce la longitud de salida innecesaria y disminuye significativamente la latencia y el costo de computación en general.
- ¿Se pueden ejecutar estos modelos localmente?
Sí. Ambos modelos están disponibles en HuggingFace y ModelScope, pero requieren GPUs potentes debido a su gran tamaño.
- ¿Cuándo lanzará DeepSeek modelos V4 o R2?
No hay una fecha oficial aún. Sin embargo, muchos usuarios esperan lanzamientos importantes alrededor del período del Año Nuevo Lunar.