Anthropic elimina el recargo por contexto largo: 1 millón de tokens al precio normal
Anthropic acaba de hacer un movimiento importante en la guerra de precios de la IA: eliminó el recargo que cobraba por usar ventanas de contexto largas. A partir del 13 de marzo de 2026, los desarrolladores que usen Claude Opus 4.6 y Sonnet 4.6 pagan exactamente lo mismo por token, sin importar si su prompt tiene 9,000 o 900,000 tokens.
¿Qué era el recargo por contexto largo?
Hasta esta semana, si enviabas un prompt que superara los 200,000 tokens, Anthropic aplicaba un cargo adicional que podía doblar el costo por token. Era básicamente un impuesto por usar la ventana de contexto completa del modelo. Muchos equipos de desarrollo lo evitaban o lo absorbían como un costo operativo inevitable.
¿Qué cambia exactamente?
- Opus 4.6: $5 por millón de tokens de entrada / $25 por millón de tokens de salida — sin importar el tamaño del prompt
- Sonnet 4.6: $3 por millón de tokens de entrada / $15 por millón de tokens de salida — precio plano
- Límite de medios: El límite de imágenes y páginas PDF por solicitud subió 6x, de 100 a 600
Traducción práctica: una solicitud de 900,000 tokens se cobra igual que una de 9,000 tokens (en tasa por token). Antes, esa diferencia podía significar el doble del costo.
¿Por qué importa esto?
Hay tres casos de uso donde esto cambia las reglas del juego:
1. RAG avanzado y bases de conocimiento. Los sistemas de Retrieval-Augmented Generation que inyectan muchos documentos en el contexto dejan de tener un penalizador de precio. Puedes pasar más contexto sin preocuparte por el costo extra.
2. Análisis de código completo. Repositorios grandes que antes requerían estrategias complejas de chunking para evitar el recargo ahora pueden pasarse completos al modelo sin penalización económica.
3. Procesamiento de documentos legales, financieros o técnicos. Contratos largos, reportes de auditoría, manuales técnicos — todo entra en una sola llamada al mismo precio de siempre.
El contexto competitivo
Este movimiento llega después de que Google eliminara restricciones similares en Gemini. Anthropic está respondiendo directamente a la presión competitiva. La ventana de contexto de 1 millón de tokens ya existía técnicamente, pero el recargo la hacía cara para uso intensivo. Ahora es accesible a precio estándar.
Para equipos que construyen productos con Claude, esto puede significar una reducción significativa en la factura mensual de API, especialmente en aplicaciones donde el tamaño promedio de prompt es alto.
Fuente: The Decoder
¿Qué significa esto para ti?
Si estás usando Claude con prompts largos (análisis de documentos, bases de código, RAG con mucho contexto), revisa tu estrategia de costos. El recargo que quizás estabas pagando o evitando ya no existe. Puedes simplificar tu arquitectura y pasar más contexto directamente sin el truco de dividir prompts para ahorrar dinero.