Anthropic lance Claude Opus 4.5 : un bond en avant dans les capacités de l’IA, avec des problèmes de sécurité persistants

0
10

Anthropic a dévoilé son dernier grand modèle de langage (LLM), Claude Opus 4.5, le positionnant comme un concurrent de premier plan en matière de codage, de tâches agents et d’utilisation générale de l’ordinateur. Cette version intervient au milieu d’avancées rapides dans le domaine, suite aux récentes mises à jour de Google (Gemini 3) et d’OpenAI. Même si les premières affirmations suggèrent que l’Opus 4.5 surpasse ses concurrents dans certains tests de codage, les données de performances réelles restent limitées car elles n’ont pas encore été évaluées de manière approfondie sur des plateformes comme LMArena.

Capacités améliorées et nouveaux outils

Le nouveau modèle présente des améliorations significatives en matière de recherche approfondie, de flux de travail basés sur des diapositives et de manipulation de feuilles de calcul. Anthropic lance simultanément des mises à jour de Claude Code, son outil de codage spécialisé, et de ses applications grand public, permettant des agents à long terme plus robustes et des fonctionnalités étendues au sein d’outils tels qu’Excel, Chrome et les environnements de bureau. Opus 4.5 est désormais accessible via les plateformes, les API et les principaux fournisseurs de cloud d’Anthropic.

La cybersécurité reste un défi crucial

Comme tous les outils d’IA agentique, Claude Opus 4.5 continue de se débattre avec des vulnérabilités inhérentes à la cybersécurité, notamment les attaques par injection rapide. Ces attaques exploitent les LLM en intégrant des instructions malveillantes dans des sources de données externes, annulant potentiellement les protocoles de sécurité et provoquant des actions nuisibles, telles que la divulgation non autorisée de données. Anthropic affirme que l’Opus 4.5 est plus résistant à ces exploits que les autres modèles phares, mais reconnaît qu’il n’est pas à l’abri.

Résultats de l’évaluation de la sécurité : un tableau mitigé

Anthropic a mené des évaluations de sécurité internes et externes pour évaluer la résistance du modèle aux invites malveillantes. Dans des scénarios de codage agent, Opus 4.5 a réussi à refuser 100 % des 150 requêtes interdites (par exemple, générer du code nuisible). Cependant, les performances dans des contextes plus appliqués étaient moins cohérentes :

  • Claude Code : A refusé environ 78 % des invites impliquant la création de logiciels malveillants, les attaques DDoS et les logiciels de surveillance non consensuels.
    – Utilisation de l’ordinateur : a refusé environ 88 % des invites demandant des actions contraires à l’éthique, telles que la surveillance, la collecte de données et la génération de contenus préjudiciables (y compris des tentatives d’extorsion simulées).

Ces résultats mettent en évidence un écart persistant entre les mesures de sécurité théoriques et les risques d’exploitation réels. Même avec des défenses améliorées, les LLM restent susceptibles d’être manipulés, soulevant des questions sur la viabilité à long terme des agents d’IA dans des environnements sensibles.

Le lancement de Claude Opus 4.5 souligne l’accélération du développement de l’IA, mais renforce également la nécessité d’une vigilance continue en matière de cybersécurité et de déploiement éthique. Bien que le modèle d’Anthropic représente un pas en avant en termes de capacités, il reste des vulnérabilités qui doivent être corrigées pour garantir une utilisation sûre et responsable.

Previous articleL’industrie de l’IA fait face à une poussée anti-PAC au milieu des craintes réglementaires
Next articleLe modèle économique de Nvidia fait un parallèle avec celui d’Enron, mais reste légal