Llama 3.3 70B
Meta · Released 2024-12
El modelo open source más potente de Meta: rendimiento de frontier con costo cero si lo corres tú mismo.
Llama 3.3 70B es el modelo open source insignia de Meta. Con 70 mil millones de parámetros, ofrece rendimiento comparable a modelos de pago como GPT-4o mini o Claude Haiku, pero puede ejecutarse localmente o en servidores propios sin costos de API. Está disponible bajo licencia permisiva para uso comercial. Los proveedores cloud lo ofrecen a precios muy bajos, y es el favorito de developers que necesitan privacidad total o control completo del modelo.
Context
128K tokens
Speed
Fast
Intelligence
Available on
API (terceros), Self-hosted
// Pricing
API (per M tokens)
$0.23 / $0.40 por M tokens (via Groq/Together)
input / output
User plan
Free available
// Strengths
- ▸Open source
- ▸Self-hosted sin costo
- ▸Privacidad total
- ▸Sin censura comercial
// Limitations
- ▸Requiere infraestructura para self-host
- ▸Menor calidad que frontier en tareas complejas
// Best for
// Frequently Asked Questions
How much does Llama 3.3 70B cost?
API: $0.23 / $0.40 por M tokens (via Groq/Together). Available for free via web.
How many context tokens does Llama 3.3 70B have?
Llama 3.3 70B has a context window of 128K tokens (~96,000 words).
What is Llama 3.3 70B best for?
Privacidad y datos sensibles, Customización total, Empresas sin presupuesto API, Research.
Is Llama 3.3 70B open source?
Yes, Llama 3.3 70B is available for self-hosting.