Meta Llama 3.x / 4
Metas Llama ist die größte offene Modellfamilie — viele Größen, sehr günstige Preise und maximale Flexibilität.
→ Quelle / RepositoryPreise und Features: Stand 23. Februar 2026. Preise ändern sich laufend — Preise variieren je nach Provider.
Was ist Llama?
Llama ist Metas offene Modellfamilie und hat das Feld der Open-Weight-Modelle maßgeblich geprägt. Von winzigen 1B-Varianten bis zum riesigen 405B-Modell ist alles dabei. Für Coder sind vor allem die mittleren bis großen Varianten interessant, die über Cloud-Provider extrem günstig verfügbar sind.
Das Schöne an Llama: Du bist nicht an einen Anbieter gebunden. Dutzende Cloud-Provider hosten Llama-Modelle, und du kannst sie sogar lokal laufen lassen.
Die Modellfamilie im Überblick
- Llama 3.2 3B/8B Instruct — Günstige Allrounder für leichtere Aufgaben.
- Llama 3.3 70B Instruct — Leistungsstark und eine gute Wahl für ernsthaftes Cloud-Coding.
- Llama 4 Maverick — Die neuere High-End-Variante mit großem Kontext und starker Performance.
Tarife (Beispiele)
Preise variieren je nach Provider. Hier eine Orientierung:
| Modell | Input-Preis / 1M Tokens | Output-Preis / 1M Tokens |
|---|---|---|
| Llama 3.2 3B Instruct | 0,02 $ | 0,02 $ |
| Llama 3.3 70B Instruct | 0,10 $ | 0,32 $ |
| Llama 4 Maverick (Flagship) | 0,15 $ | 0,60 $ |
Zum Vergleich: Für den Preis eines einzigen Claude Opus-Requests bekommst du bei Llama Dutzende Anfragen.
Was macht Llama stark fürs Coden?
- Maximale Auswahl — Viele Größen für verschiedene Budgets. Du kannst feingranular zwischen Kosten und Qualität wählen.
- Sehr günstige Preise — Besonders die kleineren Modelle (3B–11B) sind fast geschenkt und reichen für viele Coding-Tasks.
- Gute Coding-Leistung ab 70B — Die größeren Varianten kommen in Benchmarks an kommerzielle Modelle heran.
- Open Weights — Riesen-Community, viele Prompt-Rezepte, Fine-Tuning-Guides und maximale Flexibilität.
Für wen ist Llama die richtige Wahl?
Llama ist ideal, wenn du:
- Maximale Flexibilität willst und dich nicht an einen Anbieter binden möchtest
- Ein begrenztes Budget hast und trotzdem brauchbare Coding-Leistung brauchst
- Spezialisierte Coder-Agenten in Multi-Agent-Setups einsetzen willst
- Später eventuell selbst hosten oder Fine-Tuning betreiben möchtest
Wo kannst du Llama nutzen?
- Cloud-Provider: Meta, Together, Cloudflare, Groq und viele andere
- Tools: Breiter Support in IDE-Plugins, Ollama, LM Studio
- Lokal: Ollama, LM Studio, HuggingFace
Offizielle Links
- Llama: ai.meta.com/llama