← Volver al blog

Deepseek V3.2: el modelo open source que aprieta a GPT-5 y Gemini en razonamiento


Deepseek V3.2 se ha convertido en “el” lanzamiento del momento por dos motivos contundentes: razonamiento fuerte y coste/eficiencia, con una variante Speciale que empuja aún más el rendimiento. Los medios coinciden en que compite de tú a tú con los modelos punteros (GPT-5, Gemini 3 Pro) en varias pruebas, y que lo hace con un enfoque abierto y barato de operar. Xataka+2EL ESPAÑOL+2

Yo lo probé cuando recién salió y lo metí en varios proyectos. Aun así, su inestabilidad me llevó a quedarme con Claude para código en producción. Esa experiencia me enseñó algo: cada ajuste del modelo mueve el tablero (precios, tiempos, hardware). Y con V3.2 se vuelve a mover: más razonamiento, menos coste y un mensaje claro para los grandes.


1) Qué trae de nuevo Deepseek V3.2 (y la variante Speciale)

La fotografía general:

  • Dos ediciones: V3.2 (base) y V3.2-Speciale (alto rendimiento). La propia compañía presume de que Speciale supera a GPT-5 en algunas tareas de razonamiento y es comparable a Gemini 3 Pro. Investing.com México
  • Arquitectura y eficiencia: introduce DeepSeek Sparse Attention (DSA) para centrarse en los tokens relevantes y reducir cómputo; ventana de 128k tokens para contexto largo. TechRadar
  • Apuesta open: publicación de pesos y licencia permisiva/open en repos (GitHub/HF) con uso comercial habilitado según cobertura internacional reciente. TechRadar

En prensa española, Xataka y El Androide Libre remarcan el foco en razonamiento y agentes, y sitúan a V3.2/-Speciale a la altura de GPT-5/Gemini 3 Pro según pruebas de referencia. Xataka+1

En mi caso, lo más llamativo es el salto en razonamiento para tareas no triviales (planificación, descomposición de problemas), que antes me exigían demasiada ingeniería de prompt.


2) Razona y usa herramientas: qué cambia en tareas reales (código, data, búsqueda)

Aquí está el diferencial práctico:

  • Razonamiento avanzado: menos alucinaciones en tareas secuenciales y mejor “explicabilidad” paso a paso. Los medios insisten en que el claim de paridad con GPT-5 y el nivel Gemini 3 Pro llega sobre todo en reasoning. Xataka+1
  • Agentes y tool-use: V3.2 está orientado a resolver cadenas de acciones (buscar, comparar, ejecutar), algo que en mis pruebas se nota en workflows con scraping + análisis + resumen.
  • Código: si vas a puro “code-gen”, Claude me ha dado más estabilidad en producción; V3.2 ha mejorado, pero si tu pipeline exige cero sorpresas, yo sigo validando con tests automatizados y “guardrails” antes de promover cambios.

El Androide Libre recoge números concretos (AIME 2025, LiveCodeBench, SWE-Multilingual) que muestran un V3.2 muy competitivo, a veces por debajo de GPT-5 y por detrás de Gemini 3 Pro en programación, pero muy cerca en varias métricas. Eso lo convierte en un candidato serio para tareas mixtas (razonamiento + código + datos). EL ESPAÑOL


3) DSA y contexto largo: menos coste, más longitud (cómo se nota en la práctica)

DeepSeek Sparse Attention (DSA) es la pieza que marca el ahorro: al enfocarse en las partes relevantes del texto, baja el coste y acelera inferencias sin sacrificar tanto la calidad. Con 128k de contexto, puedes alimentar documentos largos, historiales de chat extensos y tablas. TechRadar

En mis flujos, esto se tradujo en:

  • Rag largo: ingestion de dossieres completos sin fragmentarlos agresivamente.
  • Menos paginación en prompts, lo que simplifica la orquestación.
  • Coste efectivo: si reduces llamadas o tamaño medio, bajas factura y latencia.

4) Benchmarks con pies en el suelo: AIME, LiveCodeBench y SWE-Multilingual explicados

  • AIME 2025 (math): V3.2 compite con la élite; algunas coberturas lo sitúan por debajo de GPT-5 y por detrás de Gemini 3 Pro en partes del set, pero muy cerca. EL ESPAÑOL
  • LiveCodeBench (coding): resultados alto-ochentas vs GPT-5 y por debajo de Gemini 3 Pro, dependiendo de la subtarea. El gap existe, pero no es abismal para proyectos donde el razonamiento pesa. EL ESPAÑOL
  • SWE-Multilingual: buen desempeño en varios idiomas, útil si trabajas con repos globales. EL ESPAÑOL

Ojo: distintos medios recogen mensajes corporativos de Deepseek donde Speciale “supera a GPT-5”; yo tomaría esa afirmación como condicionada al conjunto y a la métrica. Investing.com México


5) Costes, latencias y hardware: cómo V3.2 mueve precios y tiempos en el mercado

Cuando lo probé, ya noté que cada ajuste del modelo cambia precios/latencias. Con V3.2, la combinación de atención dispersa + implementaciones eficientes abarata la operación frente a transformers densos puros. Eso presiona al mercado: más devs evaluando stacks abiertos, más startups montando servicios con hardware modesto, más iteración rápida. Coberturas internacionales lo subrayan como “democratizador” por precio y facilidad de acceso a los pesos y a la API. TechRadar


6) Open source de verdad: pesos, licencia y ecosistema (HF, API, local)

La novedad no es solo el rendimiento, sino el modelo de distribución: repos en Hugging Face/GitHub y licencia permisiva para uso comercial, según reseñas recientes. Eso alimenta un ecosistema de demos, fine-tuning ligero y despliegues on-prem. TechRadar

Consejo práctico: si vas a on-prem, calcula VRAM/throughput con tus prompts reales (longitud, tool-use, JSON mode). En mi experiencia, ahí se “pagan” o ahorran los supuestos del papel.


7) ¿V3.2 o V3.2-Speciale? Guía rápida por caso de uso

  • V3.2 (base): mejor equilibrio coste/razonamiento; ideal para chat de soporte, análisis de documentos y agentes con herramientas.
  • V3.2-Speciale: si apuntas al tope de reasoning y te importa batir a GPT-5 en sets concretos, asume más cómputo pero mayor techo de calidad. La prensa lo posiciona como el SKU que compite con Gemini 3 Pro. Investing.com México

8) Limitaciones y estabilidad: cuándo elegir Claude/Gemini/OpenAI para código

Mi regla de pulgar:

  • Código sensible a regresiones: tiro de Claude por estabilidad y consistencia en PRs largos; V3.2 ha mejorado, pero yo aún coloco tests + revisión intermedia.
  • Razón + acción (agentes que investigan, comparan y ejecutan): V3.2 brilla y cuesta menos mantenerlo corriendo.
  • Imagen/audio multimodal profundo: según necesidad, Gemini o OpenAI pueden seguir por delante.

La prensa también advierte que hay variación por tarea: V3.2 puede ganar en reasoning y perder un poco en programación, según benchmark. EL ESPAÑOL


9) Pasos rápidos para empezar (cloud, local y buenas prácticas)

  1. Empieza en API/HF para validar prompts, tool-use y tokens medios.
  2. Evalúa con tus propios sets (AIME-like de tu dominio, coding katas y tareas reales).
  3. Métricas: calidad (exact match/bleu/func-tests), latencia p95, coste por conversación.
  4. Guarda trazas y añade tests de regresión para cada release del modelo.
  5. Si vas on-prem: dimensiona GPU/CPU/RAM para contexto 128k; aplica batching y KV-cache.

10) FAQs

¿Realmente “igual” a GPT-5 y Gemini 3 Pro?
Depende de la tarea y métrica. En varios benchmarks está muy cerca; en otros queda por debajo. La variante Speciale es la que más se acerca (o supera) en reasoning. EL ESPAÑOL+1

¿Qué es DSA y por qué abarata?
Una atención dispersa que ignora tokens poco relevantes y recorta cómputo manteniendo calidad. TechRadar

¿Hay pesos y licencia permisiva?
Sí, las coberturas lo tratan como open con uso comercial (repos en GitHub/HF y licencia permisiva). Verifica siempre el README de tu release. TechRadar

¿Y para programar?
Mi experiencia: V3.2 progresa, pero Claude me ha dado menos sorpresas en PRs largos. Compensa con tests + guardrails si eliges V3.2.


Conclusión

Deepseek V3.2 es un golpe de efecto: reasoning muy competitivo, coste menor y un enfoque abierto que complica a los grandes. Si tu producto vive de agentes con cadenas de herramientas y contextos largos, es una opción de primera. Si la prioridad es estabilidad absoluta en código, todavía conviene comparar contra Claude/Gemini/OpenAI con tu suite de tests. En cualquier caso, V3.2 obliga a revisar precios, latencias y hardware… justo lo que contabas: “los resultados hablan y el tablero se mueve”.


Cuéntame sobre tu proyecto