🔴

DeepSeek-V4-Pro-Max

NUEVO

DeepSeek · Lanzado 2026-04

TextoMultimodalCódigoRazonamiento

El modelo más potente de DeepSeek — #19 del leaderboard con 1600B parámetros y licencia MIT open source.

DeepSeek-V4-Pro-Max es la versión Pro-Max de la serie V4 de DeepSeek, released el 23 de abril de 2026. Con 1600 mil millones de parámetros, es el modelo más grande de DeepSeek hasta la fecha. Licencia MIT — open source/open weights. En el leaderboard global ocupa el puesto #19 con ELO de 52.0, ofreciendo pricing competitivo de $1.93/M tokens de entrada a 71 tokens/s de throughput. Combina capacidades de razonamiento profundo con arquitectura MoE optimizada para eficiencia.

Contexto

1M tokens

Velocidad

Rápido

Inteligencia

Disponible en

API, Web, Self-hosted

// Precios

API (por M tokens)

$1.93 / por confirmar por M tokens

entrada / salida

Plan de usuario

Gratis disponible

// Fortalezas

  • 1600B parámetros — modelo más grande de DeepSeek
  • Licencia MIT open source
  • #19 del leaderboard (ELO 52.0)
  • Throughput 71 tok/s
  • $1.93/M input

// Limitaciones

  • Servidores en China
  • Output pricing aún no confirmado
  • Contexto de 1M sin confirmar

// Mejor para

Research open source a alto rendimientoCódigo y razonamiento a precio competitivoSelf-hosting de modelos frontier

// Preguntas frecuentes

¿Cuánto cuesta DeepSeek-V4-Pro-Max?

API: $1.93 / por confirmar por M tokens. Disponible gratis via web.

¿Cuántos tokens de contexto tiene DeepSeek-V4-Pro-Max?

DeepSeek-V4-Pro-Max tiene una ventana de contexto de 1M tokens (~750,000 palabras).

¿Para qué es mejor DeepSeek-V4-Pro-Max?

Research open source a alto rendimiento, Código y razonamiento a precio competitivo, Self-hosting de modelos frontier.

¿DeepSeek-V4-Pro-Max es open source?

Sí, DeepSeek-V4-Pro-Max está disponible para self-hosting.

deepseekopen-sourcefrontiermoechinanuevomit-license