Anthropische Grenzen, Claude: Welche Arten von Fragen kann seine künstliche Intelligenz nicht beantworten?

Das amerikanische Unternehmen für künstliche Intelligenz Anthropic hat beschlossen , die Sicherheit seines Chatbots Claude zu erhöhen und klare Beschränkungen für die Art der Fragen einzuführen, die er nicht beantworten kann. Diese Maßnahme ist eine Reaktion auf internationale Bedenken hinsichtlich der potenziell schädlichen Nutzung fortschrittlicher KI .
Die aktualisierte Richtlinie erweitert bestehende Verbote und schließt ausdrücklich ein Verbot der Entwicklung von Sprengstoffen sowie biologischen, nuklearen, chemischen und radiologischen (CBRN-)Waffen ein. Claude war es zuvor untersagt, gefährliche Stoffe herzustellen oder zu verteilen. Die neuen Vorschriften gehen jedoch detaillierter auf die Risikoszenarien ein.
Ab Mai 2025 will Anthropic mit der Einführung von Claude Opus 4 und der Implementierung des AI Safety Level 3 -Systems dafür sorgen, dass das Modell nicht mehr kompromittiert oder zur Beratung bei der Herstellung von CBRN-Waffen verwendet werden kann.
Das Unternehmen hat außerdem die Regeln für die erweiterten Funktionen von Claude aktualisiert, beispielsweise für die Computernutzung , die die Interaktion der KI mit dem Computer des Benutzers ermöglicht, und für den Claude-Code , der sich an Entwickler richtet. Anthropic warnte vor den Risiken dieser Funktionen, zu denen weit verbreiteter Missbrauch, die Erstellung von Malware und Cyberangriffe gehören.
Eine wichtige Neuerung ist der Abschnitt „Computer- oder Netzwerksysteme nicht kompromittieren“ , der Aktivitäten wie das Erkennen von Schwachstellen, die Verbreitung von Schadcode oder Denial-of-Service-Angriffe untersagt. Dies schränkt Szenarien ein, in denen Claude als Werkzeug für ausgeklügelte Cyberkriminalität eingesetzt werden könnte.
Im politischen Bereich entwickeln sich die Vorschriften weiter: Anthropic reguliert nun nur noch Inhalte, die irreführend sind oder demokratische Prozesse stören , anstatt jegliche politische Kampagnen oder Lobbyarbeit zu verbieten. Die erhöhten Sicherheitsanforderungen gelten nur für den kundenorientierten Betrieb , nicht für den B2B-Bereich.
Das Update fällt mit technischen Verbesserungen an Claude zusammen, das in der Version Sonnet 4 nun über ein Kontextfenster von 1 Million Token verfügt, was 750.000 Wörtern oder 75.000 Codezeilen entspricht. Dieses Limit ist fünfmal so hoch wie die vorherige Kapazität und übertrifft sogar OpenAIs GPT-5 .
Brad Abrams, Produktmanager bei Anthropic, betonte, dass diese Kontexterweiterung besonders in der Entwicklung und beim Programmieren nützlich sei und Plattformen wie GitHub Copilot, Windsurf und Anyspheres Cursor zugutekomme. KI kann große Datenmengen in Echtzeit analysieren und so komplexe technische Projekte und Aufgaben erleichtern, die eine tiefgehende Codeinterpretation erfordern.
Mit diesen Updates versucht Anthropic, technologische Innovation und ethische Verantwortung in Einklang zu bringen und sicherzustellen, dass Claude ein leistungsstarkes, aber dennoch sicheres und zuverlässiges Tool ist. Benutzer sollten sich der Einschränkungen des Modells bewusst sein, insbesondere in risikoreichen Kontexten. Unternehmen können die neuen Kontextfunktionen für Großprojekte und komplexe Datenanalysen nutzen.
La Verdad Yucatán