VIBE CODING
NEWS2 min read

Anthropic macht 1M Kontext für Claude Opus 4.6 und Sonnet 4.6 allgemein verfügbar

Anthropic hat den 1M-Token-Kontext für Claude Opus 4.6 und Sonnet 4.6 allgemein verfügbar gemacht, inklusive Standardpreisen.

Anthropic hat bekannt gegeben, dass das beeindruckende 1M-Token-Kontextfenster für Claude Opus 4.6 und Sonnet 4.6 nun allgemein verfügbar (General Availability, GA) ist. Diese Entwicklung bringt eine Reihe signifikanter Verbesserungen für Entwickler und Unternehmen mit sich, die auf die leistungsstarken Claude-Modelle setzen.

1M Kontext für Opus 4.6 und Sonnet 4.6 jetzt allgemein verfügbar

Ab dem 13. März 2026 steht der 1M-Token-Kontext für Claude Opus 4.6 und Sonnet 4.6 auf der Claude Platform, über Amazon Bedrock, Google Cloud’s Vertex AI und Microsoft Azure Foundry zur Verfügung. Für Nutzer von Claude Code Max, Team und Enterprise mit Opus 4.6 ist der 1M-Kontext ebenfalls automatisch enthalten. Dies eliminiert die Notwendigkeit von Kompaktierungen und sorgt dafür, dass Konversationen intakt bleiben.

Wichtigste Neuerungen der GA-Version:

  • Ein Preis, volles Kontextfenster: Es gibt kein Long-Context-Premium mehr. Die Standardpreise von 5 US-Dollar für die Eingabe und 25 US-Dollar für die Ausgabe pro Million Tokens bei Opus 4.6 sowie 3 US-Dollar für die Eingabe und 15 US-Dollar für die Ausgabe pro Million Tokens bei Sonnet 4.6 gelten nun über das gesamte 1M-Token-Fenster. Eine Anfrage mit 900.000 Tokens wird also zum gleichen Pro-Token-Satz abgerechnet wie eine mit 9.000 Tokens.
  • Volle Rate-Limits: Die standardmäßigen Kontodurchsatzraten gelten über die gesamte Kontextlänge.
  • Sechsfach mehr Medien pro Anfrage: Die Medienlimits wurden von 100 auf bis zu 600 Bilder oder PDF-Seiten pro Anfrage erweitert. Dies ist ab sofort nativ auf der Claude Platform, Microsoft Azure Foundry und Google Cloud’s Vertex AI verfügbar.
  • Kein Beta-Header erforderlich: Anfragen über 200.000 Tokens funktionieren nun automatisch. Bestehende Beta-Header werden ignoriert, sodass keine Code-Änderungen notwendig sind.

Langfristiger Kontext, der überzeugt

Ein Kontext von einer Million Tokens ist nur dann wirklich nützlich, wenn das Modell relevante Details abrufen und logisch verknüpfen kann. Opus 4.6 erreicht auf dem MRCR v2 Benchmark einen Wert von 78,3 %, was laut Anthropic der höchste Wert unter den führenden Modellen bei dieser Kontextlänge ist. Die Genauigkeit der Lang-Kontext-Retrieval wurde mit jeder Modellgeneration verbessert.

Dies ermöglicht es Entwicklern, ganze Codebasen, Tausende von Seiten aus Verträgen oder den vollständigen Verlauf eines langlaufenden Agenten – inklusive Tool-Aufrufe, Beobachtungen und Zwischenschritte – direkt zu nutzen. Die bisher erforderliche Ingenieursarbeit, verlustbehaftete Zusammenfassungen und das Löschen von Kontext gehören damit der Vergangenheit an; die gesamte Konversation bleibt erhalten.

Weitere Details finden sich in der offiziellen Dokumentation und den Preisinformationen von Claude: platform.claude.com platform.claude.com

Quelle: https://claude.com/blog/1m-context-ga