OpenAI推出GPT-5.4-Cyber……作为对Claude Mythos的回应

OpenAI lance GPT-5.4-Cyber…une réponse à Claude Mythos

Silicon.fr by Philippe Leroy 2026-04-15 10:13 Original
摘要
OpenAI推出GPT-5.4-Cyber,作为对Anthropic上周发布的Claude Mythos的回应,标志着AI巨头在网络安全领域展开直接竞争。两家公司采用截然不同的策略:Anthropic的Claude Mythos采用封闭式架构,仅限战略合作伙伴使用;而OpenAI则通过其"可信网络访问"计划向经过验证的个人和团队开放GPT-5.4-Cyber的访问权限。该模型专为安全团队设计,可集成到现有安全工具中,计划于2026年5月上线,同时谷歌DeepMind和传统安全厂商也在密切关注这一快速发展的竞争格局。

OpenAI推出GPT-5.4-Cyber,直指Anthropic的Claude Mythos,标志着网络安全已成为AI巨头竞争的核心战场。这是继Claude Mythos发布一周后,OpenAI基于GPT-5.4推出的精细化专业版本。

两大模型目标一致——提升安全团队应对日益增长威胁的能力,但实现路径截然不同。

两种模型,两种哲学

Anthropic选择了严格控制路线。Claude Mythos基于未公开的全新前沿架构,部署范围严格限定于少数战略合作伙伴。据称,该模型已识别出操作系统、网页浏览器及其他关键软件中的数千个重大漏洞。

OpenAI则宣称秉持民主化理念。GPT-5.4-Cyber是对GPT-5.4进行微调的产物,训练数据涵盖公共威胁情报源、匿名化事件日志及MITRE ATT&CK基准。

其访问权限通过“可信网络安全访问”(TAC)计划进行身份验证管理。该计划于今年二月启动,现已扩展至数千名经认证的个人安全专家及数百个团队。分级验证机制对应不同能力解锁,最高级别用户可访问GPT-5.4-Cyber及其最敏感功能。

OpenAI网络安全研究员Fouad Matin表示:“这是一项团队运动。我们必须确保每个团队都有能力保护其系统。”公司进一步阐明其立场,认为“由中心化决策来决定谁有权进行防御,既不切实际也不恰当”,这显然是对竞争对手选择性策略的含蓄批评。

为SOC团队与CISO设计的功能

在功能层面,GPT-5.4-Cyber区别于通用对话模型之处在于其原生集成至安全工作流。它设计用于与SIEM和EDR解决方案协同工作,能够综合复杂警报、生成调查报告,并根据组织的内部策略推荐应对措施。

其扩展能力包括:评估编译软件以识别恶意软件和弱点、检测恶意行为模式、分析模拟入侵尝试以及编写自动化响应脚本。这种刻意设计的“网络宽松”特性,正是TAC计划设立验证框架的理由。

此外,OpenAI宣布了与Azure Security Center、AWS GuardDuty和Google Security Operations的原生连接器,以及与Microsoft Security Copilot的合作伙伴关系。

GPT-5.4-Cyber将于2026年5月通过OpenAI Enterprise及面向托管安全解决方案供应商的安全API提供。首批试点将涉及金融、医疗行业运营商及欧洲政府部门。

谷歌DeepMind虎视眈眈,传统厂商承压

OpenAI与Anthropic的两强对峙,正被谷歌DeepMind密切关注。后者在2025年提出了一个专注于规避、混淆和主动缓解的高级AI网络威胁评估框架,但目前尚未推出同等级别的专用模型。

对于CrowdStrike或Palo Alto Networks等传统安全厂商而言,处境颇为矛盾:它们通过Project Glasswing与Anthropic合作,同时却面临这些AI模型逐步集成SOC平台专属功能所带来的日益激烈的竞争。

这场竞赛的加速也引发了行业刚刚开始思考的治理问题:对于本质上攻防一体、难以控制的双重用途工具,应如何制定监管框架?

Summary
OpenAI has launched GPT-5.4-Cyber, a specialized cybersecurity model, in direct response to Anthropic's Claude Mythos. The two AI giants are competing with opposing strategies: Anthropic is limiting access to a select few partners, while OpenAI is pursuing broader, verified access through its Trusted Access for Cyber program. This race is pressuring traditional security vendors and raising industry-wide questions about governing dual-use AI tools.

OpenAI has launched GPT-5.4-Cyber, a specialized cybersecurity model, positioning it as a direct response to Anthropic's recent release of Claude Mythos. This move confirms cybersecurity as a central competitive battleground for leading AI firms, though the two companies are pursuing starkly different strategies.

Anthropic's Claude Mythos is built on a new, non-public frontier architecture and is being deployed selectively to a limited circle of strategic partners. It is reported to have already identified thousands of major vulnerabilities in operating systems, web browsers, and other critical software. In contrast, OpenAI is promoting a democratization approach. GPT-5.4-Cyber is a fine-tuned version of GPT-5.4, trained on specialized datasets including public threat sources, anonymized incident logs, and MITRE ATT&CK benchmarks.

Access to GPT-5.4-Cyber is gated through OpenAI's Trusted Access for Cyber (TAC) program, launched in February and now being expanded to thousands of certified individual defenders and hundreds of teams. Progressive verification levels unlock increasing capabilities, with the highest tier granting access to the model's most sensitive features. OpenAI researcher Fouad Matin framed the release as a "collective sport," stating the goal is to ensure every team can secure its systems. The company further argued it is "neither practical nor appropriate to decide in a centralized manner who has the right to defend themselves," a thinly veiled critique of Anthropic's selective approach.

Functionally, GPT-5.4-Cyber is designed for native integration into security workflows, operating alongside SIEM and EDR tools. Its capabilities include synthesizing complex alerts, generating investigation reports, recommending policy-aligned responses, assessing compiled software for malware and weaknesses, detecting malicious behavior patterns, analyzing simulated intrusion attempts, and writing automated response scripts. This deliberately "cyber-permissive" design is cited as the rationale for the TAC verification framework.

The model will feature native connectors for Azure Security Center, AWS GuardDuty, and Google Security Operations, alongside a partnership with Microsoft Security Copilot. It is scheduled for release in May 2026 via OpenAI Enterprise and as a secure API for managed security solution providers. Initial pilots are planned with financial sector actors, healthcare operators, and European ministries.

This OpenAI-Anthropic competition unfolds as Google DeepMind watches from the sidelines; it presented a framework for evaluating AI-related cyber threats in 2025 but has not yet released a comparable dedicated model. For traditional security vendors like CrowdStrike and Palo Alto Networks—partners with Anthropic via Project Glasswing—the rise of these integrated AI models presents an ambivalent challenge, increasing competition in functions traditionally reserved for SOC platforms.

The accelerating pace of this race is raising nascent governance questions for the industry, particularly concerning how to regulate tools whose offensive/defensive duality is inherently difficult to control.

Résumé
OpenAI lance GPT-5.4-Cyber, une version spécialisée de son modèle pour la cybersécurité, en réponse à Claude Mythos d'Anthropic. Alors qu'Anthropic privilégie un accès restreint à son modèle, OpenAI opte pour une approche de démocratisation via son programme de vérification TAC, intégrant l'outil dans les workflows de sécurité existants. Cette rivalité accélère la course dans le domaine, mettant sous pression les éditeurs traditionnels de sécurité et soulevant des questions sur la gouvernance de ces outils à double usage.

C’est confirmé : la cybersécurité est désormais un terrain de compétition centrale entre les grands de l’IA. Une semaine après le lancement de Claude Mythos, OpenAI répond avec GPT-5.4-Cyber, une déclinaison affinée de GPT-5.4.

Les deux produits partagent le même objectif déclaré : renforcer les capacités des équipes de sécurité face à des menaces croissantes  mais divergent radicalement sur la manière d’y parvenir.

Deux modèles, deux approches

Anthropic fait le choix du contrôle. Claude Mythos repose sur une nouvelle architecture frontier, reste non public, et son déploiement est volontairement limité à un cercle restreint de partenaires stratégiques. Le modèle aurait déjà permis d’identifier des milliers de vulnérabilités majeures dans des systèmes d’exploitation, des navigateurs web et d’autres logiciels critiques.

OpenAI revendique au contraire une logique de démocratisation. GPT-5.4-Cyber est un fine-tuning de GPT-5.4, entraîné sur des corpus spécialisés incluant des sources publiques de menaces, des journaux d’incidents anonymisés et des benchmarks MITRE ATT&CK.

Son accès est conditionné à une vérification d’identité via le programme Trusted Access for Cyber (TAC), lancé en février, que la scale-up étend désormais à des milliers de défenseurs individuels certifiés et à des centaines d’équipes. Des niveaux de vérification progressifs débloquent des capacités croissantes, les utilisateurs approuvés au niveau le plus élevé accédant à GPT-5.4-Cyber et à ses fonctionnalités les plus sensibles.

« C’est un sport collectif. Nous devons nous assurer que chaque équipe est en capacité de sécuriser ses systèmes », résume Fouad Matin, chercheur cyber chez OpenAI. L’inventeur de ChatGPT.va plus loin dans la formulation, affirmant qu’il n’est « ni pratique ni approprié de décider de manière centralisée qui a le droit de se défendre ». Une pique à peine voilée à l’encontre de l’approche sélective de son concurrent.

Des capacités conçues pour les équipes SOC et les CISO

Sur le plan fonctionnel, GPT-5.4-Cyber se distingue des modèles conversationnels généralistes par son intégration native dans les workflows de sécurité. Il est conçu pour fonctionner aux côtés des outils SIEM et des solutions EDR, et peut synthétiser des alertes complexes, générer des rapports d’investigation et recommander des réponses adaptées aux politiques internes d’une organisation.

Ses capacités étendues incluent l’évaluation de logiciels compilés pour identifier des malwares et des faiblesses, la détection de patterns de comportement malveillant, l’analyse de tentatives d’intrusion simulées et la rédaction de scripts de réponse automatisée.

La conception délibérément « cyber-permissive » du modèle est précisément ce qui justifie le cadre de vérification du programme TAC.

OpenAI annonce par ailleurs des connecteurs natifs avec Azure Security Center, AWS GuardDuty et Google Security Operations (anciennement Chronicle), ainsi qu’un partenariat avec Microsoft Security Copilot.

GPT-5.4-Cyber sera disponible dès mai 2026 via OpenAI Enterprise et sous forme d’API sécurisée destinée aux éditeurs de solutions de sécurité managée. Les premiers pilotes sont prévus auprès d’acteurs du secteur financier, d’opérateurs de santé et de ministères européens.

Google DeepMind en embuscade, les éditeurs traditionnels sous pression

Cette bipolarisation OpenAI-Anthropic se déroule sous le regard de Google DeepMind, qui a présenté en 2025 un cadre d’évaluation des menaces cyber liées aux IA avancées, centré sur l’évasion, l’obfuscation et les mitigations proactives mais sans modèle dédié comparable à ce stade.

Pour les éditeurs traditionnels comme CrowdStrike ou Palo Alto Networks, la situation est ambivalente : partenaires d’Anthropic via Project Glasswing, ils sont simultanément exposés à une concurrence croissante à mesure que ces modèles intègrent des fonctions jusqu’ici réservées aux plateformes SOC.

La rapidité à laquelle s’accélère cette course soulève aussi des questions de gouvernance que l’industrie commence à peine à formuler : comment encadrer des outils dont la dualité offensive/défensive reste, par construction, difficile à contrôler ?

The post OpenAI lance GPT-5.4-Cyber…une réponse à Claude Mythos appeared first on Silicon.fr.

AI Insight
Core Point

OpenAI推出GPT-5.4-Cyber,作为对Anthropic的Claude Mythos的直接竞争回应,标志着网络安全成为AI巨头竞争的核心战场。

Key Players

OpenAI — 美国AI研究公司,推出GPT-5.4-Cyber网络安全专用模型。

Anthropic — 美国AI安全公司,推出Claude Mythos,采用受限部署策略。

Google DeepMind — 英国AI研究机构,已发布相关评估框架但尚无同类产品。

Industry Impact
  • ICT: 高 — AI模型正深度集成到安全工具链,改变SOC工作流程。
  • Computing/AI: 高 — 巨头在网络安全这一垂直领域展开激烈竞争与路线分歧。
Tracking

Strongly track — 顶级AI公司正通过不同路径重塑网络安全市场格局,将影响传统安全厂商并引发治理问题。

Categories
人工智能 软件 网络安全
AI Processing
2026-04-15 16:10
deepseek / deepseek-chat