Claude kann jetzt ganze Softwareprojekte in einer einzigen Anfrage verarbeiten, sagt Anthropic

Möchten Sie intelligentere Einblicke in Ihren Posteingang erhalten? Melden Sie sich für unseren wöchentlichen Newsletter an, um nur das zu erhalten, was für Führungskräfte in den Bereichen KI, Daten und Sicherheit in Unternehmen wichtig ist. Jetzt abonnieren
Anthropic gab am Dienstag bekannt, dass sein künstliches Intelligenzmodell Claude Sonnet 4 jetzt bis zu 1 Million Kontext-Token in einer einzigen Anfrage verarbeiten kann – eine Verfünffachung, die es Entwicklern ermöglicht, ganze Softwareprojekte oder Dutzende von Forschungsarbeiten zu analysieren, ohne sie in kleinere Teile zu zerlegen.
Die Erweiterung, die jetzt als öffentliche Betaversion über die API von Anthropic und Amazon Bedrock verfügbar ist, stellt einen bedeutenden Fortschritt in der Art und Weise dar, wie KI-Assistenten komplexe, datenintensive Aufgaben bewältigen können. Mit der neuen Kapazität können Entwickler Codebasen mit mehr als 75.000 Codezeilen laden, sodass Claude die komplette Projektarchitektur verstehen und Verbesserungen für ganze Systeme statt für einzelne Dateien vorschlagen kann.
Die Ankündigung erfolgt zu einem Zeitpunkt, an dem Anthropic zunehmender Konkurrenz durch OpenAI und Google ausgesetzt ist, die beide bereits ähnliche Kontextfenster anbieten. Unternehmensquellen betonten jedoch im Hintergrund, dass die Stärke von Claude Sonnet 4 nicht nur in der Kapazität, sondern auch in der Genauigkeit liege. Bei internen „ Nadel-im-Heuhaufen “-Bewertungen, bei denen die Fähigkeit des Modells getestet wird, bestimmte Informationen in riesigen Textmengen zu finden, erreicht das System eine Leistung von 100 %.
Die erweiterte Kontextfähigkeit behebt eine grundlegende Einschränkung, die die KI-gestützte Softwareentwicklung bisher behindert hat. Bisher mussten Entwickler bei großen Projekten ihre Codebasen manuell in kleinere Segmente aufteilen, wodurch häufig wichtige Verbindungen zwischen verschiedenen Teilen ihrer Systeme verloren gingen.
Die Skalierung von KI stößt an ihre Grenzen
Leistungsbeschränkungen, steigende Token-Kosten und Verzögerungen bei der Inferenz verändern die Unternehmens-KI. Nehmen Sie an unserem exklusiven Salon teil und erfahren Sie, wie Top-Teams:
- Energie in einen strategischen Vorteil verwandeln
- Effiziente Inferenz für echte Durchsatzsteigerungen
- Erzielen Sie mit nachhaltigen KI-Systemen einen wettbewerbsfähigen ROI
Sichern Sie sich Ihren Platz, um die Nase vorn zu haben : https://bit.ly/4mwGngO
„Was einst unmöglich war, ist jetzt Realität“, sagte Sean Ward, CEO und Mitgründer des Londoner Unternehmens iGent AI , dessen Maestro-Plattform Gespräche in ausführbaren Code umwandelt, in einer Erklärung. „Claude Sonnet 4 mit 1M-Token-Kontext hat die autonomen Fähigkeiten von Maestro, unserem Software-Engineering-Agenten, enorm verbessert. Dieser Sprung ermöglicht echtes Engineering im Produktionsmaßstab – mehrtägige Sitzungen mit realen Codebasen.“
Eric Simons, CEO von Bolt.new , das Claude in browserbasierte Entwicklungsplattformen integriert, sagte in einer Erklärung: „Mit dem 1M-Kontextfenster können Entwickler jetzt an deutlich größeren Projekten arbeiten und gleichzeitig die hohe Genauigkeit beibehalten, die wir für die Codierung in der realen Welt benötigen.“
Der erweiterte Kontext ermöglicht drei primäre Anwendungsfälle, die zuvor schwierig oder unmöglich waren: umfassende Codeanalyse über ganze Repositories hinweg, Dokumentsynthese mit Hunderten von Dateien unter Wahrung der Beziehungen zwischen ihnen und kontextsensitive KI-Agenten, die die Kohärenz über Hunderte von Toolaufrufen und komplexe Workflows hinweg aufrechterhalten können.
Anthropic hat seine Preisstruktur angepasst, um den gestiegenen Rechenleistungsanforderungen bei der Verarbeitung größerer Kontexte Rechnung zu tragen. Während Eingabeaufforderungen mit 200.000 Token oder weniger den aktuellen Preis von 3 US-Dollar pro Million Eingabetoken und 15 US-Dollar pro Million Ausgabetoken beibehalten, kosten größere Eingabeaufforderungen 6 US-Dollar bzw. 22,50 US-Dollar.
Die Preisstrategie spiegelt die umfassendere Dynamik wider, die die KI-Branche umgestaltet. Aktuelle Analysen zeigen, dass Claude Opus 4 für bestimmte Aufgaben pro Million Token etwa siebenmal mehr kostet als das neu eingeführte GPT-5 von OpenAI. Dies erhöht den Druck auf die Beschaffungsteams von Unternehmen, Leistung und Kosten in Einklang zu bringen.
Anthropic argumentiert jedoch, dass die Entscheidung eher auf Qualität und Nutzungsmuster als auf den Preis abzielen sollte. Unternehmensquellen weisen darauf hin, dass Prompt-Caching – das häufig abgerufene große Datensätze speichert – Long Context kostengünstiger machen kann als herkömmliche Retrieval-Augmented-Generation- Ansätze, insbesondere für Unternehmen, die wiederholt dieselben Informationen abfragen.
„Durch den großen Kontext kann Claude alles sehen und das Relevante auswählen. Dies führt oft zu besseren Antworten als vorgefilterte RAG-Ergebnisse, bei denen wichtige Verbindungen zwischen Dokumenten übersehen werden könnten“, sagte ein Sprecher von Anthropic gegenüber VentureBeat.
Die Fähigkeit zur langfristigen Kontexterfassung kommt zustande, da Anthropic 42 % des Marktes für KI-Codegenerierung beherrscht. Dies ist mehr als doppelt so viel wie der Marktanteil von OpenAI (21 %), wie aus einer Umfrage von Menlo Ventures unter 150 technischen Führungskräften in Unternehmen hervorgeht. Diese Dominanz birgt jedoch auch Risiken: Branchenanalysen deuten darauf hin, dass die Codierungsanwendungen Cursor und GitHub Copilot etwa 1,2 Milliarden US-Dollar des jährlichen Umsatzes von Anthropic von 5 Milliarden US-Dollar erwirtschaften, was zu einer erheblichen Kundenkonzentration führt.
Die Beziehung zu GitHub gestaltet sich angesichts der 13 Milliarden Dollar schweren Investition von Microsoft in OpenAI besonders komplex. Während GitHub Copilot derzeit für wichtige Funktionen auf Claude angewiesen ist, steht Microsoft unter zunehmendem Druck, seine eigene OpenAI-Partnerschaft stärker zu integrieren und Anthropic trotz der aktuellen Leistungsvorteile von Claude möglicherweise zu verdrängen.
Der Zeitpunkt der Kontexterweiterung ist strategisch. Anthropic hat diese Funktion mit Sonnet 4 eingeführt – das laut Unternehmen „die optimale Balance aus Intelligenz, Kosten und Geschwindigkeit“ bietet – und nicht mit seinem leistungsstärksten Modell Opus . Unternehmensquellen gaben an, dass dies den Bedürfnissen von Entwicklern entspricht, die mit großen Datenmengen arbeiten. Konkrete Zeitpläne für die Erweiterung anderer Claude-Modelle mit langem Kontext wurden jedoch nicht genannt.
Das Kontextfenster mit einer Million Token stellt einen bedeutenden technischen Fortschritt im Bereich der Gedächtnis- und Aufmerksamkeitsmechanismen von KI dar. Zum Vergleich: Es reicht aus, um etwa 750.000 Wörter zu verarbeiten – das entspricht in etwa zwei Romanen oder umfangreichen technischen Dokumentationen.
Interne Tests von Anthropic zeigten eine perfekte Erinnerungsleistung in verschiedenen Szenarien – eine entscheidende Fähigkeit angesichts der zunehmenden Kontextfenster. Das Unternehmen bettete spezifische Informationen in riesige Textmengen ein und testete Claudes Fähigkeit, diese Details zu finden und bei der Beantwortung von Fragen zu verwenden.
Die erweiterten Fähigkeiten werfen jedoch auch Sicherheitsbedenken auf. Frühere Versionen von Claude Opus 4 zeigten in fiktiven Szenarien besorgniserregendes Verhalten, darunter Erpressungsversuche angesichts einer möglichen Abschaltung. Obwohl Anthropic zusätzliche Sicherheitsvorkehrungen und Schulungen zur Behebung dieser Probleme implementiert hat, verdeutlichen die Vorfälle die komplexen Herausforderungen bei der Entwicklung immer leistungsfähigerer KI-Systeme.
Fortune 500-Unternehmen übernehmen eilig die erweiterten Kontextfunktionen von ClaudeDie Einführung der Funktion ist zunächst auf Anthropic API- Kunden mit Tier 4 und benutzerdefinierten Ratenlimits beschränkt. Eine breitere Verfügbarkeit ist in den kommenden Wochen geplant. Amazon Bedrock-Nutzer haben sofortigen Zugriff, während die Integration von Google Cloud Vertex AI noch aussteht.
Die ersten Reaktionen der Unternehmen waren laut Unternehmensquellen enthusiastisch. Die Anwendungsfälle reichen von Programmierteams, die ganze Repositorien analysieren, über Finanzdienstleister, die umfangreiche Transaktionsdatensätze verarbeiten, bis hin zu juristischen Startups, die Vertragsanalysen durchführen, die zuvor eine manuelle Dokumentensegmentierung erforderten.
„Dies ist eine der am häufigsten von API-Kunden nachgefragten Funktionen“, sagte ein Sprecher von Anthropic. „Wir erleben branchenübergreifende Begeisterung für die Freisetzung echter Agentenfähigkeiten. Kunden führen jetzt mehrtägige Programmiersitzungen mit realen Codebasen durch, was aufgrund von Kontextbeschränkungen zuvor unmöglich gewesen wäre.“
Die Entwicklung ermöglicht zudem anspruchsvollere KI-Agenten, die den Kontext über komplexe, mehrstufige Arbeitsabläufe hinweg aufrechterhalten können. Diese Fähigkeit wird besonders wertvoll, da Unternehmen von einfachen KI-Chat-Schnittstellen zu autonomen Systemen übergehen, die erweiterte Aufgaben mit minimalem menschlichen Eingriff bewältigen können.
Die Ankündigung mit dem langen Kontext verschärft den Wettbewerb unter den führenden KI-Anbietern. Googles älteres Modell Gemini 1.5 Pro und OpenAIs älteres Modell GPT-4.1 bieten beide 1 Million Token-Fenster. Anthropic argumentiert jedoch, dass Claudes überlegene Leistung bei Codierungs- und Argumentationsaufgaben auch bei höheren Preisen einen Wettbewerbsvorteil bietet.
Die KI-Branche verzeichnete ein explosionsartiges Wachstum bei den Ausgaben für Modell-APIs. Laut Menlo Ventures verdoppelten sie sich in nur sechs Monaten auf 8,4 Milliarden US-Dollar. Unternehmen legen konsequent Wert auf Leistung statt Preis und rüsten unabhängig von den Kosten innerhalb weniger Wochen auf neuere Modelle auf. Dies deutet darauf hin, dass bei Beschaffungsentscheidungen die technischen Möglichkeiten oft wichtiger sind als Preisüberlegungen.
Die jüngste aggressive Preisstrategie von OpenAI mit GPT-5 könnte diese Dynamik jedoch verändern. Erste Vergleiche zeigen deutliche Preisvorteile, die die typische Wechselträgheit überwinden könnten, insbesondere für kostenbewusste Unternehmen, die mit zunehmender KI-Einführung unter Budgetdruck stehen.
Für Anthropic ist es weiterhin entscheidend, seine Marktführerschaft im Bereich Programmierung zu behaupten und gleichzeitig die Einnahmequellen zu diversifizieren. Das Unternehmen hat die Zahl der im Jahr 2025 abgeschlossenen Verträge im acht- und neunstelligen Bereich im Vergleich zum gesamten Jahr 2024 verdreifacht. Dies spiegelt die breitere Akzeptanz in Unternehmen über seine Programmier-Hochburgen hinaus wider.
Da KI-Systeme immer größere Informationsmengen verarbeiten und analysieren können, verändert sich die Herangehensweise von Entwicklern an komplexe Softwareprojekte grundlegend. Die Fähigkeit, den Kontext über ganze Codebasen hinweg beizubehalten, stellt einen Wandel von der KI als Programmierassistent hin zum umfassenden Entwicklungspartner dar, der den gesamten Umfang und die Zusammenhänge von Großprojekten versteht.
Die Auswirkungen gehen weit über die Softwareentwicklung hinaus. Branchen von der Rechtsberatung bis zur Finanzanalyse beginnen zu erkennen, dass KI-Systeme, die den Kontext über Hunderte von Dokumenten hinweg aufrechterhalten können, die Art und Weise, wie Unternehmen komplexe Informationsbeziehungen verarbeiten und verstehen, grundlegend verändern könnten.
Doch mit großen Fähigkeiten geht auch große Verantwortung – und ein hohes Risiko – einher. Da diese Systeme immer leistungsfähiger werden, erinnern die Vorfälle besorgniserregenden KI-Verhaltens während der Tests von Anthropic daran, dass im Wettlauf um den Ausbau der KI-Fähigkeiten ein ausgewogenes Verhältnis zwischen Sicherheit und Kontrolle bestehen muss.
Während Claude lernt, mit einer Million Informationen gleichzeitig zu jonglieren, steht Anthropic vor seinem eigenen Kontextfensterproblem: Es ist gefangen zwischen dem Preisdruck von OpenAI und den widersprüchlichen Loyalitäten von Microsoft.
Wenn Sie Ihren Chef beeindrucken möchten, sind Sie bei VB Daily genau richtig. Wir geben Ihnen Insiderinformationen darüber, was Unternehmen mit generativer KI machen – von regulatorischen Veränderungen bis hin zu praktischen Implementierungen. So können Sie Ihre Erkenntnisse teilen und so den ROI maximieren.
Lesen Sie unsere Datenschutzrichtlinie
Vielen Dank für Ihr Abonnement. Weitere VB-Newsletter finden Sie hier .
Ein Fehler ist aufgetreten.

venturebeat