Limites anthropiques Claude : à quelles questions son intelligence artificielle ne répondra-t-elle pas ?

Anthropic, l'entreprise américaine d'intelligence artificielle , a décidé de renforcer la sécurité de son chatbot Claude , en limitant clairement les types de questions auxquelles il refusera de répondre. Cette mesure répond aux inquiétudes internationales concernant les utilisations potentiellement néfastes de l'IA avancée .
La politique mise à jour étend les interdictions existantes, incluant explicitement l'interdiction de développer des explosifs puissants et des armes biologiques, nucléaires, chimiques ou radiologiques (CBRN) . Claude était auparavant interdit de produire ou de distribuer des matières dangereuses, mais la nouvelle réglementation détaille davantage les scénarios de risque.
À partir de mai 2025, avec l'arrivée de Claude Opus 4 et la mise en place du système AI Safety Level 3 , Anthropic cherche à rendre difficile la compromission du modèle ou son utilisation pour conseiller sur la création d'armes CBRN .
L'entreprise a également mis à jour les règles relatives aux fonctionnalités avancées de Claude, telles que « Utilisation de l'ordinateur » , qui permet à l'IA d'interagir avec l'ordinateur de l'utilisateur, et « Claude Code » , destiné aux développeurs. Anthropic a mis en garde contre les risques liés à ces fonctionnalités, notamment les abus généralisés, la création de logiciels malveillants et les cyberattaques .
Une nouveauté importante est la section « Ne pas compromettre les systèmes informatiques ou réseau » , qui interdit des activités telles que la détection de vulnérabilités, la diffusion de codes malveillants ou les attaques par déni de service. Cela limite les scénarios où Claude pourrait être utilisé comme outil de cybercriminalité sophistiquée .
Dans le domaine politique, la réglementation évolue : Anthropic ne réglemente désormais que les contenus trompeurs ou perturbateurs pour les processus démocratiques , au lieu d'interdire toute campagne politique ou tout lobbying. Les exigences de sécurité renforcées ne s'appliquent qu'aux opérations en contact direct avec les consommateurs , et non aux environnements interentreprises.
Cette mise à jour coïncide avec les améliorations techniques apportées à Claude, qui dispose désormais d'une fenêtre contextuelle d' un million de jetons dans sa version Sonnet 4 , soit l'équivalent de 750 000 mots ou 75 000 lignes de code . Cette limite est cinq fois supérieure à la capacité précédente et dépasse même celle de GPT-5 d'OpenAI .
Brad Abrams, chef de produit chez Anthropic, a souligné que cette extension de contexte est particulièrement utile en développement et en codage , bénéficiant à des plateformes comme GitHub Copilot, Windsurf et Cursor d'Anysphere . L'IA peut analyser de grands volumes de données en temps réel, facilitant ainsi les projets d'ingénierie complexes et les tâches nécessitant une interprétation approfondie du code.
Avec ces mises à jour, Anthropic cherche à concilier innovation technologique et responsabilité éthique , garantissant ainsi la puissance de Claude, un outil à la fois sûr et fiable . Les utilisateurs doivent être conscients des limites du modèle, notamment dans les contextes à haut risque, tandis que les entreprises peuvent exploiter cette nouvelle fonctionnalité contextuelle pour les projets de grande envergure et l'analyse de données complexes .
La Verdad Yucatán