法国国家信息系统安全局(ANSSI)也相继就OpenClaw……以及Claude Cowork的风险发出警告。

L’ANSSI alerte à son tour sur les dangers d’OpenClaw… et de Claude Cowork

Silicon.fr by Clément Bohic 2026-04-24 07:36 Original
摘要
法国CERT-FR发布警报,指出OpenClaw及Claude Cowork等AI代理自动化产品存在系统入侵、数据泄露等风险,禁止在生产环境中使用,仅限隔离测试环境。中国CERT此前也警告OpenClaw默认配置极脆弱,要求强化网络控制、隔离执行环境并严格管理插件来源。这些措施凸显了AI代理工具在权限过高和注入攻击方面的安全挑战。

法国国家信息系统安全局(ANSSI)近日发布警告,指出OpenClaw及Claude Cowork等AI代理自动化产品存在严重安全风险,包括系统被入侵、敏感数据泄露及潜在的破坏性操作。此前,法国计算机应急响应小组(CERT-FR)已发布相关警报,将风险范围扩展至所有“基于AI代理的桌面自动化产品”,并明确提及OpenClaw和Claude Cowork。

CERT-FR明确建议:目前严禁在生产环境中使用这些AI助手,必须严格限定在隔离的测试环境中,且不得接触任何敏感数据。同时,应限制可访问的操作和工具,定义允许的通信渠道和对话对象列表。激活方式可加以限制,例如要求通过@提及显式调用助手。系统命令的使用必须经过人工审核。CERT-FR还指出,虽然防御性提示设计有助于降低风险,但注入攻击仍可能绕过这些防护。

此前数周,中国国家互联网应急中心(CNCERT)已发布类似警告,重点针对OpenClaw,指出其“默认配置极为脆弱”,并提醒该工具可能拥有过高权限(如访问本地文件系统、读取环境变量、安装插件等)。CNCERT的警报虽未正式禁止生产部署,但提出了多项前提条件:加强网络控制,不将默认管理端口暴露于互联网;隔离执行环境,使用容器等技术限制过高权限;避免在环境变量中存储密钥;严格管理插件来源并禁用自动更新。

相关背景:Peter Steinberger已离开OpenClaw加入OpenAI;NVIDIA正通过OpenShell和NanoClaw扩展其AI代理生态;Google Workspace已通过CLI开放AI代理接入;OpenAI的数十亿美元资金也用于收购。本文配图由AI生成。

Summary
The French cybersecurity agency CERT-FR has issued an alert warning against deploying AI agent automation tools like OpenClaw and Claude Cowork in production, citing risks of system compromise, data leaks, and destructive actions. It mandates strict isolation in test environments, restricted actions and tools, human validation for system commands, and explicit invocation of assistants. This follows a similar warning from the Chinese CERT, which highlighted OpenClaw's "extremely fragile" default configuration and excessive privileges, recommending network controls, container isolation, and strict plugin management.

France's national cybersecurity agency (ANSSI) has issued a warning about the security risks posed by OpenClaw and Claude Cowork, two AI-powered agentic automation tools for workstations. The alert, published through the CERT-FR (Computer Emergency Response Team for France), follows a similar warning from the Chinese CERT weeks earlier, which focused specifically on OpenClaw.

The CERT-FR bulletin highlights risks including system compromise, sensitive data leaks, and potentially destructive actions. It explicitly extends its warning to all "AI agentic automation products on workstations," naming both OpenClaw and Claude Cowork as examples.

The agency's guidance is unequivocal: these assistants must not be used in production environments under current conditions. Any use must be strictly limited to isolated test environments that contain no sensitive data. Additional precautions include restricting accessible actions and tools, defining whitelists for communication channels and authorized interlocutors, and limiting activation mechanisms—for instance, requiring explicit invocation via @ mentions. System command execution must require human validation.

The CERT-FR acknowledges that defensive prompt engineering can help reduce risks, but notes that injection attacks can still bypass such measures.

The Chinese CERT had previously described OpenClaw's default configuration as "extremely fragile," citing its elevated privileges including access to the local file system, ability to read environment variables, and capacity to install plugins. While it did not formally prohibit production deployment, it established strict prerequisites: strengthening network controls and avoiding exposure of the default management port to the internet; isolating execution environments using container technologies to limit excessive privileges; avoiding storage of keys in environment variables; and strictly managing plugin sources while disabling automatic updates.

The French and Chinese warnings together signal growing international concern about the security posture of agentic AI tools that operate with broad system access on workstations.

Résumé
Le CERT-FR (ANSSI) a émis une alerte concernant les risques liés aux assistants IA agentiques comme OpenClaw et Claude Cowork, déconseillant leur utilisation en production et préconisant des environnements de test isolés sans données sensibles. Le CERT chinois avait déjà signalé la configuration "extrêmement fragile" d'OpenClaw, recommandant un renforcement du contrôle réseau et une gestion stricte des privilèges. Ces mises en garde soulignent les vulnérabilités majeures de ces outils, notamment face aux attaques par injection, limitant leur déploiement professionnel.

Compromission de systèmes, fuite de données sensibles, actions potentiellement destructrices… Les risques que pose OpenClaw sont connus et reconnus.

Le CERT-FR les a récemment synthétisés en un bulletin d’alerte. Il étend son propos à l’ensemble des « produits d’automatisation par IA agentique sur les postes de travail ». Outre OpenClaw, Claude Cowork est mentionné.

Consigne : en l’état, hors de question d’utiliser ces assistants en production. On s’en tiendra impérativement à des environnements de test isolés, sans données sensibles. On limitera par ailleurs les actions et les outils accessibles, tout en définissant des listes de canaux de communication et d’interlocuteurs autorisés. L’activation pourra être restreinte, par exemple en imposant l’invocation explicite des assistants (mentions @). Et l’usage de commandes système, soumis à validation humaine.

La formulation défensive des prompts peut contribuer à réduire les risques, même si les attaques par injection peuvent la contourner, précise le CERT-FR.

Le CERT chinois déplore un OpenClaw « extrêmement fragile »

Il y a quelques semaines, le CERT chinois avait émis une alerte de la même teneur, centrée toutefois sur OpenClaw. Il en soulignait la « configuration par défaut extrêmement fragile ». Et rappelait les privilèges élevés dont l’outil peut disposer (acès au système de fichier local, lecture des variables d’environnement, installation de plug-in…).

Son alerte n’interdisait pas formellement le déploiement en prod. Elle établissait néanmoins des prérequis parmi lesquels :

Renforcer le contrôle du réseau et ne pas exposer à Internet le port de gestion par défaut

Isoler l’environnement d’exécution et utiliser des technos comme les conteneurs pour limiter les privilèges excessifs

Ne pas stocker de clés dans des variables d’environnement

Gérer de manière stricte les sources des plug-in et désactiver leur mise à jour automatique

À consulter en complément :

Pourquoi Peter Steinberger a quitté OpenClaw pour OpenAI

D’OpenShell à NanoClaw, un NVIDIA tentaculaire sur l’agentique

Google Workspace s’ouvre aux agents IA par la voie du CLI

Les milliards d’OpenAI alimentent aussi des acquisitions

Illustration générée par IA

The post L’ANSSI alerte à son tour sur les dangers d’OpenClaw… et de Claude Cowork appeared first on Silicon.fr.

AI Insight
Core Point

French and Chinese cybersecurity agencies warn against deploying AI agent automation tools OpenClaw and Claude Cowork in production due to severe security risks.

Key Players
  • ANSSI (CERT-FR) — French national cybersecurity agency.
  • CERT China — Chinese national cybersecurity agency.
  • OpenClaw — AI agent automation tool for workstations.
  • Claude Cowork — AI assistant for collaborative work.
Industry Impact
  • ICT: High — critical vulnerabilities in AI agent tools threaten enterprise security.
  • Computing/AI: High — highlights systemic risks in deploying autonomous AI agents.
Tracking

Strongly track — Major security alerts from two national CERTs signal urgent need for safe AI agent deployment practices.

Related Companies
OpenAI
mature
negative
negative
negative
Nvidia
mature
negative
negative
neutral
Categories
人工智能 软件 网络安全
AI Processing
2026-04-24 09:58
deepseek / deepseek-chat