...

DeepSeek V3.2: la IA gratuita que razona, usa herramientas y pone en jaque a GPT-5

Inteligencia artificial

DeepSeek V3.2 no es una iteración menor ni un simple ajuste de costos: es una declaración de intenciones. El nuevo modelo de la startup china DeepSeek combina razonamiento avanzado, uso autónomo de herramientas, contextos largos de hasta 128.000 tokens y una arquitectura que reduce drásticamente el coste de inferencia. Todo ello, además, bajo una filosofía open source y con acceso gratuito.

Mientras OpenAI y Google avanzan con modelos cada vez más potentes —y más cerrados—, DeepSeek ha optado por un camino distinto: demostrar que la eficiencia arquitectónica puede competir de tú a tú con la fuerza bruta. El resultado es un sistema que iguala o supera a GPT-5 y Gemini-3 Pro en múltiples pruebas, y que redefine la economía real del uso de IA a gran escala.

DeepSeek V3.2: qué es y por qué importa

Una familia de modelos que ya compite en la élite

DeepSeek es una compañía china de IA de código abierto que, en menos de un año, ha pasado de ser una promesa a una amenaza real para los líderes del sector. Sus modelos V3 y R1 ya destacaban por rendimiento a bajo coste, pero DeepSeek V3.2 eleva el listón al integrar razonamiento, agentes y contextos largos en un solo sistema.

La versión V3.2-Exp, lanzada el 29 de septiembre de 2025, mantiene la arquitectura de 685.000 millones de parámetros de su predecesor, pero introduce un cambio crítico en cómo procesa la información. Ese cambio es el que explica por qué el modelo cuesta más de un 50% menos sin perder calidad.

Dos modelos, dos enfoques claros

  • DeepSeek V3.2: disponible en web, app y API. Diseñado para uso general, análisis de documentos, agentes y tareas profesionales.
  • DeepSeek V3.2-Speciale: enfocado en razonamiento extremo. Disponible por API y orientado a matemáticas, informática y resolución de problemas complejos.

Ambos modelos ya están disponibles, algo poco habitual en lanzamientos de esta magnitud.

DeepSeek Sparse Attention (DSA): la innovación que lo cambia todo

El problema histórico de los contextos largos

Los transformadores tradicionales utilizan atención densa: cada token se compara con todos los demás. Esto provoca un crecimiento cuadrático del coste computacional. En la práctica, procesar documentos largos se vuelve prohibitivamente caro.

Aquí es donde entra la gran innovación de DeepSeek.

¿Qué hace diferente a la atención dispersa de DeepSeek?

DeepSeek Sparse Attention (DSA) permite que el modelo:

  • Analice el contenido
  • Identifique qué tokens son relevantes
  • Calcule solo las relaciones necesarias

No usa patrones fijos ni ventanas rígidas. Decide dinámicamente qué importa, según la tarea. El resultado es contundente:

  • Ventanas de contexto de 128.000 tokens en producción
  • Reducción del coste de inferencia cercana al 50%
  • Menos operaciones, menor latencia, misma calidad

Un dato clave: aunque el modelo tiene 671.000 millones de parámetros, solo activa unos 37.000 millones por token. Esa selectividad explica su eficiencia radical.

Razonamiento avanzado y uso autónomo de herramientas

Pensar mientras actúa

Por primera vez en DeepSeek, el razonamiento no es un paso previo o posterior: está integrado en el uso de herramientas. El modelo puede razonar mientras:

  • Ejecuta búsquedas
  • Usa calculadoras
  • Escribe y revisa código
  • Coordina múltiples acciones

La cadena de pensamiento persiste entre llamadas a herramientas y solo se reinicia cuando el usuario envía un nuevo mensaje. Esto lo acerca mucho al comportamiento de agentes autónomos reales.

Dos modos de funcionamiento

  • Con razonamiento visible, similar a lo visto en ChatGPT o Claude.
  • Sin razonamiento, optimizado para velocidad y costo.

Esta dualidad permite ajustar el modelo a distintos escenarios sin cambiar de arquitectura.

DeepSeek V3.2: la IA gratuita
Imagen de Gerd Altmann en Pixabay

Comparativa real: DeepSeek V3.2 vs GPT-5 vs Claude 4.5

Prueba práctica con 57.000 tokens

En una prueba de análisis multidocumento con más de 57.000 tokens, los resultados fueron claros:

  • GPT-5:
    • Coste: 0,1623 USD
    • Tiempo: ~42 s
  • Claude Sonnet 4.5:
    • Coste: 0,2048 USD
    • Tiempo: ~16 s (el más rápido)
  • DeepSeek V3.2-Exp:
    • Coste: 0,0162 USD
    • Tiempo: ~32 s
  • DeepSeek V3.1:
    • Coste: 0,0328 USD
    • Tiempo: ~36 s

Conclusión directa: DeepSeek V3.2 es entre 10 y 13 veces más barato que GPT-5 y Claude, con tiempos razonables y resultados prácticamente idénticos en calidad.

DeepSeek V3.2-Speciale: el open source que ganó medallas de oro

Resultados que no admiten discusión

El modelo Speciale ha logrado:

  • Olimpiada Matemática Internacional 2025
  • Olimpiada Internacional de Informática 2025
  • Finales mundiales ICPC 2025
  • Olimpiada Matemática China 2025

Es uno de los pocos casos documentados donde un modelo abierto supera a sistemas propietarios en competencias formales de alto nivel.

Transparencia total: pesos y paper publicados

DeepSeek ha publicado:

  • Pesos completos
  • Informe técnico
  • Detalles del entrenamiento

Esto contrasta con la opacidad habitual de las grandes tecnológicas. El mensaje es claro: no solo compiten en rendimiento, también en apertura.

¿Cuándo tiene sentido usar DeepSeek V3.2?

Ideal para:

  • Análisis de documentos largos
  • Investigación multidocumento
  • Agentes autónomos
  • Revisión legal o técnica
  • Creación de contenido extenso

Menos adecuado cuando:

  • El presupuesto no importa
  • Se requieren respuestas ultrarrápidas sin contexto largo
  • Los documentos superan ampliamente los límites de contexto

Conclusión

DeepSeek V3.2 no compite solo por precio: compite por arquitectura, razonamiento y eficiencia. Su atención dispersa cambia la economía del contexto largo, su integración de herramientas lo acerca a agentes reales y su enfoque abierto rompe con la narrativa dominante del sector.

No es perfecto —sigue siendo experimental—, pero marca un punto de inflexión: demuestra que una IA abierta puede razonar, actuar y escalar sin disparar costos. Para desarrolladores, empresas y equipos de investigación, DeepSeek V3.2 no es solo una alternativa: es una advertencia para OpenAI y Google.

Síguenos

Contáctanos

SMBRAS
SMBRAS
Impulsa tu negocio con nuestros servicios de SEO
Posiciona tu Web
Transforma tu Presencia Digital Con Diseño Web
Mejora tu Web
Domina las Redes Sociales con Nuestra Estrategia y Gestión
Haz Crecer Tu Comunidad

Más Post