DeepSeek-V4-Pro-Max
NUEVODeepSeek · Lanzado 2026-04
El modelo más potente de DeepSeek — #19 del leaderboard con 1600B parámetros y licencia MIT open source.
DeepSeek-V4-Pro-Max es la versión Pro-Max de la serie V4 de DeepSeek, released el 23 de abril de 2026. Con 1600 mil millones de parámetros, es el modelo más grande de DeepSeek hasta la fecha. Licencia MIT — open source/open weights. En el leaderboard global ocupa el puesto #19 con ELO de 52.0, ofreciendo pricing competitivo de $1.93/M tokens de entrada a 71 tokens/s de throughput. Combina capacidades de razonamiento profundo con arquitectura MoE optimizada para eficiencia.
Contexto
1M tokens
Velocidad
Rápido
Inteligencia
Disponible en
API, Web, Self-hosted
// Precios
API (por M tokens)
$1.93 / por confirmar por M tokens
entrada / salida
Plan de usuario
Gratis disponible
// Fortalezas
- ▸1600B parámetros — modelo más grande de DeepSeek
- ▸Licencia MIT open source
- ▸#19 del leaderboard (ELO 52.0)
- ▸Throughput 71 tok/s
- ▸$1.93/M input
// Limitaciones
- ▸Servidores en China
- ▸Output pricing aún no confirmado
- ▸Contexto de 1M sin confirmar
// Mejor para
// Preguntas frecuentes
¿Cuánto cuesta DeepSeek-V4-Pro-Max?
API: $1.93 / por confirmar por M tokens. Disponible gratis via web.
¿Cuántos tokens de contexto tiene DeepSeek-V4-Pro-Max?
DeepSeek-V4-Pro-Max tiene una ventana de contexto de 1M tokens (~750,000 palabras).
¿Para qué es mejor DeepSeek-V4-Pro-Max?
Research open source a alto rendimiento, Código y razonamiento a precio competitivo, Self-hosting de modelos frontier.
¿DeepSeek-V4-Pro-Max es open source?
Sí, DeepSeek-V4-Pro-Max está disponible para self-hosting.