{ 专家论坛 } – AI 代理:零信任的缺失环节?

{ Tribune Expert } – Agents IA : le chaînon manquant du Zero Trust ?

Silicon.fr by Aziz si Mohammed * 2026-03-24 15:32 Original
摘要
人工智能的快速发展正在深刻改变技术系统,特别是在零信任架构中,AI代理作为新的数字身份引发了安全挑战。文章指出,AI代理需要技术身份如API密钥和OAuth令牌进行操作,但这些身份常常缺乏严格的管理和监督,可能导致安全隐患。OKTA的高级经理Aziz si Mohammed强调,确保AI代理的安全性和管理是现代安全策略的重要组成部分,以实现真正的零信任环境。

人工智能的加速采用正在深刻改变技术系统。从集成到业务工具的协作助手到由自主代理驱动的自动化工作流程,AI不再仅仅是一个简单的应用服务。它现在作为信息系统的一个操作角色,能够执行操作、查询第三方系统,甚至操控敏感数据。这对零信任架构构成了新的挑战。

这一演变催生了一类新的数字身份:与AI代理相关的非人类身份。API密钥、服务账户、OAuth令牌或机器对机器身份成为模型、应用程序和基础设施之间的交互载体。但如何将这些新角色整合到现有的信任模型中呢?

多年来,零信任范式已成为保护信息系统的参考。其原则很简单:默认不信任任何身份,并根据上下文和风险级别系统地验证每次访问。

然而,零信任最初是为管理人类身份和用户设备而设计的。然而,在一个由AI丰富的信息系统中,越来越多的交互来自自动化代理。如果这些技术身份没有被列入清单、治理或以与人类账户相同的严格标准进行监控,零信任架构将失去部分效力。因此,保护AI代理成为任何现代安全策略的关键要素。

AI代理,信息系统的新身份

人工智能架构依赖于多种自动化访问机制。为了调用模型、查询数据库、在业务工具中触发操作或通过API获取信息,AI代理必须拥有技术身份。身份可以是访问服务或数据库的API密钥、执行自动化工作流程的服务账户、授权访问SaaS应用的OAuth令牌,或云原生架构中的机器对机器身份。

这些机制对于代理的运行至关重要。然而,它们也引入了一个范式转变:与信息系统的交互主要由人类用户触发,越来越多地由自主流程编排。一个能够分析支持票、查阅文档库并触发操作的代理,作为系统用户行动,通常在更大规模和更高速度下进行。

零信任的盲点

零信任模型基于多个支柱:强身份验证、访问分段、持续验证和最小特权原则。这些机制对于人类用户已被很好掌握。然而,非人类身份往往缺乏监管。在许多组织中,API密钥和服务账户是为项目需求而创建的,然后在没有实际监督的情况下保持活跃。为了简化技术集成,它们有时拥有广泛的权限。

这一现象因围绕AI的快速实验而加剧。数据、创新或业务团队部署代理以自动化任务、连接模型或丰富应用程序,有时是在传统治理流程之外。结果是,部分信息系统通过自动化访问运行,逃避了常规控制。

对于攻击者来说,这些身份是一个有吸引力的目标。与用户账户不同,它们通常不受多因素身份验证保护,并可能拥有广泛的授权。在代码库中暴露的API密钥或被破坏的令牌可能因此打开对关键资源的访问。在零信任架构中,这些不在控制范围内的身份创造了一个隐含的信任区域。这正是该模型试图避免的。

过度权限和“影子代理”:注意危险!

与AI代理相关的主要风险之一是权限管理。为了简化开发,通常会给代理分配过多的权限:对数据库的完全访问或对多个API的广泛权限。

这与最小特权原则背道而驰。代理应仅拥有其功能所需的权限。然而,这种细粒度的管理仍然很少应用。

此外,“影子代理”的出现也加剧了这一问题。类似于影子IT,代理可以由业务或技术团队非正式创建,以自动化某些任务。它们通常使用快速生成的技术身份,没有集中记录。

随着时间的推移,这些身份变得难以追踪。有些在初始项目消失后仍然存在,而另一些则保留了不合理的高权限。在一个AI代理与多个系统(数据库、SaaS或内部工具)交互的环境中,这些影子身份构成了一个显著的风险载体。

绘制和治理AI代理

为了有效保护自动化的信息系统,必须使AI代理的身份可见和可控。这意味着要列出所有存在的代理,无论是由IT正式部署的还是来自未受监管的本地倡议的。每个技术身份(API密钥、服务账户、OAuth令牌或机器对机器身份)都应被记录并与一个人类负责人关联,以确保可追溯性和责任。

除了简单的定位之外,掌握这些代理可以连接的资源也至关重要。对工具、应用程序、API和数据库的集中管理允许在每次交互中应用最小特权原则,持续监控访问并立即检测任何异常活动。技术身份应能够快速撤销或更新,以限制滥用或故障带来的风险。

最后,代理的治理应覆盖其整个生命周期:创建、权限分配、活动跟踪、标识的安全更新以及在不再需要时的删除。将AI代理视为完整的身份可以确保全面的可见性、系统的控制以及在整体安全策略中的一致整合。

迈向真正扩展的零信任

零信任原则(永不信任,始终验证)也应适用于自动化实体。这意味着在安全策略中进行多项演变,以系统地验证机器对机器身份,应用最小特权原则于AI代理,监控其行为以检测潜在的异常使用,或将这些身份整合到分段和访问控制策略中。随着AI架构的复杂化,对这些身份的控制成为安全姿态的结构性元素。

人工智能不再仅仅是分析或推荐:它直接在信息系统中行动。在一个越来越自动化的信息系统中,信任不应仅对用户进行验证,而应对每个能够代表用户行动的代理进行验证。

*Aziz si Mohammed是OKTA的解决方案工程高级经理

本文首次出现在{ 专家论坛 } – AI代理:零信任的缺失环节?上,发表于Silicon.fr。

Summary
The rapid adoption of AI is transforming technology systems, introducing non-human digital identities such as API keys and service accounts, which challenge existing Zero Trust security models initially designed for human identities. This shift necessitates new security strategies to manage these AI agents, ensuring they are inventoried, governed, and monitored to prevent security risks associated with excessive privileges and "Shadow Agents." Aziz si Mohammed from OKTA highlights the importance of extending Zero Trust principles to these automated entities to maintain a robust security posture in increasingly automated IT environments.

The accelerated adoption of artificial intelligence is profoundly transforming technological systems. From copilots integrated into business tools to automated workflows driven by autonomous agents, AI is no longer limited to a simple application service. It now acts as an operational player in the IT system, capable of executing actions, querying third-party systems, and even handling sensitive data. An emerging challenge for Zero Trust architectures.

This evolution gives rise to a new category of digital identities: non-human identities associated with AI agents. API keys, service accounts, OAuth tokens, or machine-to-machine identities become the vectors of interaction between models, applications, and infrastructures. But how can these new actors be integrated into existing trust models?

For several years, the Zero Trust paradigm has established itself as a reference for securing information systems. Its principle is simple: trust no identity by default and systematically verify each access based on context and risk level.

However, Zero Trust was initially designed to manage human identities and user equipment. Yet, in an IT system enriched by AI, an increasing share of interactions comes from automated agents. If these technical identities are neither inventoried, governed, nor monitored with the same level of rigor as human accounts, the Zero Trust architecture loses part of its effectiveness. Securing AI agents thus becomes an essential element of any modern security strategy.

AI Agents, New Identities of the IT System

AI architectures rely on multiple automated access mechanisms. To call a model, query a database, trigger an action in a business tool, or retrieve information via an API, an AI agent must have a technical identity. Identities can take the form of API keys for accessing services or databases, service accounts to execute automated workflows, OAuth tokens authorizing access to SaaS applications, or machine-to-machine identities in cloud-native architectures.

These mechanisms are essential for the functioning of agents. However, they also introduce a paradigm shift: interactions with the IT system, primarily triggered by human users, are increasingly orchestrated by autonomous processes. An agent capable of analyzing a support ticket, consulting a documentation base, and triggering an action acts as a system user, often on a much larger scale and speed.

The Blind Spot of Zero Trust

The Zero Trust model is based on several pillars: strong authentication, access segmentation, continuous verification, and the principle of least privilege. These mechanisms are well mastered today for human users. Non-human identities, however, often remain less regulated. In many organizations, API keys and service accounts are created to meet a project need and then remain active without real supervision. They sometimes have extended privileges to simplify technical integrations.

This phenomenon is amplified by the rapid experimentation around AI. Data, innovation, or business teams deploy agents to automate tasks, connect models, or enrich applications, sometimes outside traditional governance processes. As a result, part of the IT system operates with automated access that escapes usual controls.

For an attacker, these identities represent an attractive target. Unlike user accounts, they are generally not protected by multi-factor authentication and may have extensive permissions. An exposed API key in a code repository or a compromised token can thus open access to critical resources. In a Zero Trust architecture, these identities outside the control perimeter create an implicit trust zone. Exactly what this model seeks to avoid.

Excessive Privileges and "Shadow Agents": Beware of Danger!

One of the major risks related to AI agents concerns privilege management. To simplify development, it is common to grant an agent excessive rights: full access to a database or extended permissions on multiple APIs.

Contrary to the principle of least privilege. An agent should only have the rights necessary for its function. However, this granularity is still rarely applied.

Added to this is the emergence of "Shadow Agents." Like Shadow IT, agents can be informally created by business or technical teams to automate certain tasks. They often use quickly generated technical identities without centralized registration.

Over time, these identities become difficult to trace. Some persist even though the initial project has disappeared, while others retain unjustified high privileges. In an environment where AI agents interact with multiple systems (databases, SaaS, or internal tools), these phantom identities constitute a significant risk vector.

Mapping and Governing AI Agents

To effectively secure an automated IT system, it is essential to make AI agents' identities visible and controllable. This involves inventorying all present agents, whether officially deployed by IT or from unregulated local initiatives. Each technical identity (API key, service account, OAuth token, or machine-to-machine identity) must be inventoried and associated with a human responsible to ensure traceability and accountability.

Beyond their simple location, it is crucial to control the resources these agents can connect to. Centralized management of tools, applications, APIs, and databases allows the application of the principle of least privilege to each interaction, continuous monitoring of access, and immediate detection of any abnormal activity. Technical identities must be able to be quickly revoked or updated to limit risks related to abusive exploitation or malfunction.

Finally, the governance of agents must cover their entire lifecycle: creation, privilege assignment, activity monitoring, secure renewal of identifiers, and deletion when no longer needed. Treating AI agents as full-fledged identities ensures complete visibility, systematic control, and coherent integration into the overall security strategy.

Towards a Truly Extended Zero Trust

The principle of Zero Trust (Never Trust, Always Verify) must also apply to automated entities. This implies several evolutions in security strategies to systematically authenticate machine-to-machine identities, apply the principle of least privilege to AI agents, monitor their behaviors to detect potential abnormal uses, or integrate these identities into segmentation and access control policies. As AI architectures become more complex, controlling these identities becomes a structuring element of the security posture.

Artificial intelligence no longer just analyzes or recommends: it acts directly in information systems. In an increasingly automated IT system, trust must no longer be verified only for users but for every agent capable of acting on their behalf.

*Aziz si Mohammed is Senior Manager, Solutions Engineering at [OKTA](https://www.okta.com/fr-fr/).*

The post [{ Expert Opinion } – AI Agents: The Missing Link of Zero Trust?](https://www.silicon.fr/cybersecurite-1371/tribune-expert-agents-ia-le-chainon-manquant-du-zero-trust-226404) appeared first on [Silicon.fr](https://www.silicon.fr).

Résumé
L'article discute de l'impact croissant de l'intelligence artificielle sur les systèmes d'information, mettant en avant l'émergence des identités numériques non humaines, telles que les agents IA, qui posent un défi aux architectures de sécurité Zero Trust. Aziz si Mohammed d'OKTA souligne que ces agents, souvent non surveillés, nécessitent une gestion rigoureuse pour éviter des risques de sécurité, notamment en appliquant le principe du moindre privilège et en intégrant ces identités dans les stratégies de sécurité existantes. Cette évolution technologique oblige les entreprises à repenser leurs approches de sécurité pour inclure ces nouvelles entités automatisées.

L’adoption accélérée de l’intelligence artificielle transforme en profondeur les systèmes technologiques. Des copilotes intégrés aux outils métiers aux workflows automatisés pilotés par des agents autonomes, l’IA ne se limite plus à un simple service applicatif. Elle agit désormais comme un acteur opérationnel du SI, capable d’exécuter des actions, d’interroger des systèmes tiers et même de manipuler des données sensibles. Un défi émergent pour les architectures Zero Trust.

Cette évolution fait émerger une nouvelle catégorie d’identités numériques : les identités non humaines associées aux agents IA. Clés API, comptes de service, tokens OAuth ou identités machine-to-machine deviennent les vecteurs d’interaction entre modèles, applications et infrastructures. Mais comment intégrer ces nouveaux acteurs dans les modèles de confiance existants ?

Depuis plusieurs années, le paradigme Zero Trust s’impose comme une référence pour sécuriser les systèmes d’information. Son principe est simple : ne faire confiance à aucune identité par défaut et vérifier systématiquement chaque accès en fonction du contexte et du niveau de risque.

Cependant, le Zero Trust a été initialement conçu pour gérer des identités humaines et des équipements utilisateurs. Or, dans un SI enrichi par l’IA, une part croissante des interactions émane d’agents automatisés. Si ces identités techniques ne sont ni inventoriées, ni gouvernées, ni surveillées avec le même niveau d’exigence que les comptes humains, l’architecture Zero Trust perd une partie de son efficacité. La sécurisation des agents IA devient ainsi un élément essentiel de toute stratégie de sécurité moderne.

Les agents IA, nouvelles identités du SI

Les architectures d’intelligence artificielle reposent sur de multiples mécanismes d’accès automatisés. Pour appeler un modèle, interroger une base de données, déclencher une action dans un outil métier ou récupérer des informations via une API, un agent IA doit disposer d’une identité technique. Les identités peuvent prendre la forme de clés API permettant d’accéder à des services ou bases de données, de comptes de service pour exécuter des workflows automatisés, de tokens OAuth autorisant l’accès à des applications SaaS ou d’identités machine-to-machine dans les architectures cloud natives.

Ces mécanismes s’avèrent indispensables au fonctionnement des agents. Toutefois, ils introduisent aussi un changement de paradigme : les interactions avec le SI majoritairement déclenchées par des utilisateurs humains sont de plus en plus orchestrées par des processus autonomes. Un agent capable d’analyser un ticket de support, de consulter une base documentaire et de déclencher une action agit comme un utilisateur du système, souvent à une échelle et à une vitesse bien supérieures.

L’angle mort du Zero Trust

Le modèle Zero Trust repose sur plusieurs piliers : authentification forte, segmentation des accès, vérification continue et principe du moindre privilège. Ces mécanismes sont aujourd’hui bien maîtrisés pour les utilisateurs humains. Les identités non humaines, en revanche, restent souvent moins encadrées. Dans de nombreuses organisations, clés API et comptes de service sont créés pour répondre à un besoin projet, puis restent actifs sans supervision réelle. Ils disposent parfois de privilèges étendus afin de simplifier les intégrations techniques.

Ce phénomène est amplifié par la rapidité d’expérimentation autour de l’IA. Les équipes data, innovation ou métiers déploient des agents pour automatiser des tâches, connecter des modèles ou enrichir des applications, parfois en dehors des processus de gouvernance traditionnels. Résultat : une partie du SI fonctionne avec des accès automatisés qui échappent aux contrôles habituels.

Pour un attaquant, ces identités représentent une cible attractive. Contrairement aux comptes utilisateurs, elles ne sont généralement pas protégées par authentification multifactorielle et peuvent disposer d’autorisations étendues. Une clé API exposée dans un dépôt de code ou un token compromis peut ainsi ouvrir l’accès à des ressources critiques. Dans une architecture Zero Trust, ces identités hors du périmètre de contrôle créent une zone de confiance implicite. Exactement ce que ce modèle cherche à éviter.

Privilèges excessifs et “Shadow Agents” : attention danger !

L’un des risques majeurs liés aux agents IA concerne la gestion des privilèges. Pour simplifier le développement, il est fréquent d’attribuer à un agent des droits excessifs : accès complet à une base de données ou permissions étendues sur plusieurs API.

A l’encontre même du principe du moindre privilège. Un agent devrait disposer uniquement des droits nécessaires à sa fonction. Néanmoins, cette granularité est encore rarement appliquée.

À cela s’ajoute l’émergence des “Shadow Agents”. A l’instar du Shadow IT, les agents peuvent être créés de manière informelle par des équipes métiers ou techniques pour automatiser certaines tâches. Ils utilisent souvent des identités techniques générées rapidement, sans enregistrement centralisé.

Avec le temps, ces identités deviennent difficiles à tracer. Certaines subsistent alors que le projet initial a disparu, tandis que d’autres conservent des privilèges élevés injustifiés. Dans un environnement où les agents IA interagissent avec plusieurs systèmes (bases de données, SaaS ou outils internes), ces identités fantômes constituent un vecteur de risque significatif.

Cartographier et gouverner les agents IA

Pour sécuriser efficacement un SI automatisé, il est essentiel de rendre les identités des agents IA visibles et contrôlables. Cela implique de recenser tous les agents présents, qu’ils soient officiellement déployés par l’IT ou issus d’initiatives locales non encadrées. Chaque identité technique (clé API, compte de service, token OAuth ou identité machine-to-machine) doit être inventoriée et associée à un responsable humain afin d’assurer la traçabilité et la responsabilité.

Au-delà de leur simple localisation, il est crucial de maîtriser les ressources auxquelles ces agents peuvent se connecter. Une gestion centralisée des outils, applications, API et bases de données permet d’appliquer le principe du moindre privilège à chaque interaction, de surveiller en continu les accès et de détecter immédiatement toute activité anormale. Les identités techniques doivent pouvoir être révoquées ou mises à jour rapidement pour limiter les risques liés à une exploitation abusive ou à un dysfonctionnement.

Enfin, la gouvernance des agents doit couvrir l’intégralité de leur cycle de vie : création, attribution de privilèges, suivi des activités, renouvellement sécurisé des identifiants et suppression lorsqu’ils ne sont plus nécessaires. Traiter les agents IA comme des identités à part entière garantit une visibilité complète, un contrôle systématique et une intégration cohérente dans la stratégie de sécurité globale.

Vers un Zero Trust réellement étendu

Le principe du Zero Trust (Never Trust, Always Verify) doit s’appliquer aussi aux entités automatisées. Cela implique plusieurs évolutions dans les stratégies de sécurité pour authentifier systématiquement les identités machine-to-machine, appliquer le principe du moindre privilège aux agents IA, surveiller leurs comportements afin de détecter d’éventuels usages anormaux ou intégrer ces identités dans les politiques de segmentation et de contrôle d’accès. À mesure que les architectures d’IA se complexifient, le contrôle de ces identités devient un élément structurant de la posture de sécurité.

L’intelligence artificielle ne se contente plus d’analyser ou de recommander : elle agit directement dans les systèmes d’information. Dans un SI de plus en plus automatisé, la confiance ne doit plus être vérifiée uniquement pour les utilisateurs, mais pour chaque agent capable d’agir en leur nom.

*Aziz si Mohammed est Senior Manager, Solutions Engineering chez OKTA

The post { Tribune Expert } – Agents IA : le chaînon manquant du Zero Trust ? appeared first on Silicon.fr.

AI Insight
Core Point

AI agents are becoming operational non-human identities in enterprise systems, exposing a Zero Trust blind spot that matters because they can access sensitive data and execute actions at scale.

Key Players

Okta — identity and access management vendor, based in San Francisco, USA.

Silicon.fr — French tech media outlet, based in France.

Industry Impact
  • ICT: High — Zero Trust, IAM, and identity governance must expand to machine identities.
  • Computing/AI: High — AI agents are moving from assistants to autonomous system actors.
Tracking

Strongly track — this signals a security architecture shift as AI agents become first-class identities in enterprise environments.

Related Companies
neutral
neutral
Categories
人工智能 网络安全
AI Processing
2026-03-26 12:06
openai / gpt-5.4-mini