金融业在人工智能应用与数据保护之间陷入两难

Le secteur financier pris en étau entre adoption de l’IA et protection des données

Silicon.fr by Philippe Leroy 2026-04-07 13:29 Original
摘要
Netskope Threat Labs发布的2026年金融服务报告指出,金融行业在控制员工使用未经审批的个人AI工具("影子AI")方面取得显著进展,此类使用率从76%降至36%。然而,受监管的敏感数据仍占AI应用数据泄露事件的59%,且攻击者正转向利用GitHub和OneDrive等合法云平台传播恶意软件。报告建议金融机构实施全流量检测、严格的数据防泄露策略及远程浏览器隔离技术以应对安全挑战。

金融行业正面临人工智能应用与数据保护的双重压力。根据Netskope威胁实验室发布的《2026年金融服务报告》(数据覆盖2025年2月至2026年2月),随着AI深度融入金融机构的核心运营流程,网络安全挑战也同步升级。

影子AI有所收敛但未根除

金融机构在管控员工使用未经批准的个人AI工具(即“影子AI”)方面取得显著进展。一年内,个人生成式AI应用使用率从76%降至36%,而企业管理的解决方案采用率则从33%跃升至79%。ChatGPT仍是使用最广泛的工具,覆盖76%的机构;Google Gemini以68%紧随其后,保持稳定增长。Google NotebookLM迅速获得39%的采用率,专注于语音转文本的AssemblyAI增长尤为迅猛,一年内使用率从1%飙升至37%。

尽管向受控环境的迁移符合合规与治理逻辑,问题并未完全解决:15%的用户仍在混合使用个人与工作账户,表明企业工具尚未完全满足员工对便捷性的期待。

受监管数据成泄露重灾区

最敏感且受严格监管的数据仍然是安全事件的主要目标。报告显示,在生成式AI应用的政策违规事件中,这类数据占59%;在个人应用中占比更高,达65%。其次是知识产权(20%)、源代码(11%)以及凭据或API密钥(9%)。挑战因一个常被忽视的因素而加剧:97%的用户通过日常工具的内置功能间接使用AI,且往往不自知。这种“隐形使用”使安全团队的控制难度大幅增加。

恶意软件转向合法云平台分发

攻击者已调整策略,转而利用GitHub、Microsoft OneDrive等合法云平台分发恶意软件,以融入正常网络流量并规避传统安全检测。目前,GitHub已成为针对金融行业恶意软件的首要分发源,影响11%的机构;OneDrive位居第二,影响8.2%的实体。这些受信任的环境被非法利用后,极难在不误阻正常业务使用的情况下进行有效过滤。

金融机构的封锁策略与安全建议

为应对威胁,金融机构强化了应用封锁政策。ZeroGPT是被禁止最多的工具(46%的机构),其次是DeepSeek(44%)和PolitePost(43%)。在监控方面,受最严密监控的应用前三位是Google Drive(40%)、ChatGPT(28%)和Gmail(27%)。

Netskope威胁实验室提出多项具体建议以增强安全防护:首先,全面检查HTTP/HTTPS流量以拦截恶意软件,包括通过合法平台传输的恶意软件;其次,部署严格的数据防泄露(DLP)策略,重点保护源代码和受监管数据。报告还建议对高风险网站(如新注册或近期出现的域名)采用远程浏览器隔离(RBI)技术,将浏览会话在远程服务器而非用户终端运行,从而限制恶意内容的暴露。最后,选择性封锁应用(仅允许确有专业用途的应用)的策略被认为优于过度宽松的管控方式。

*注:本报告基于2025年2月至2026年2月期间收集的金融行业部分客户匿名使用数据分析而成。*

Summary
A Netskope Threat Labs report on financial services from February 2025-2026 finds that while the sector has reduced "Shadow AI" use (personal GenAI tools dropping from 76% to 36%), regulated data remains the primary target for security breaches, accounting for 59-65% of policy violations. Attackers are increasingly using legitimate platforms like GitHub and Microsoft OneDrive to distribute malware, and the report recommends rigorous data loss prevention, full traffic inspection, and selective application blocking to improve security.

Financial institutions are navigating a complex trade-off between accelerating AI adoption and securing sensitive data, according to the Netskope Threat Labs 2026 report on financial services. The analysis, covering anonymized customer data from February 2025 to February 2026, reveals evolving cybersecurity challenges as AI becomes operational.

A significant shift is the decline of "Shadow AI." The use of personal GenAI applications by employees dropped sharply from 76% to 36% over the year, while adoption of organization-managed solutions surged from 33% to 79%. This migration toward controlled environments is driven by compliance and governance needs. ChatGPT remains the most prevalent tool, present in 76% of organizations, followed by Google Gemini (68%). Google NotebookLM saw rapid adoption at 39%, and AssemblyAI, specializing in voice transcription, experienced spectacular growth from 1% to 37% in under a year. However, 15% of users still toggle between personal and professional accounts, indicating enterprise tools may not yet fully meet user expectations for simplicity.

Despite this progress, regulated data remains the primary target for security incidents. It constitutes 59% of policy violations in managed GenAI applications and 65% in personal applications. Other compromised data includes intellectual property (20%), source code (11%), and credentials or API keys (9%). A compounding challenge is that 97% of users indirectly engage with AI through features embedded in daily tools, often unknowingly, creating an invisible usage layer that complicates security oversight.

Attackers have adapted by leveraging legitimate cloud platforms to distribute malware, blending malicious traffic with normal network activity. GitHub has become the top source for malware targeting the financial sector, impacting 11% of organizations, followed by Microsoft OneDrive at 8.2%. These trusted environments, when weaponized, are particularly difficult to filter without risking disruption to legitimate business use.

In response, financial institutions have tightened application-blocking policies. ZeroGPT is the most frequently banned tool (46% of organizations), followed by DeepSeek (44%) and PolitePost (43%). For monitoring, Google Drive (40%), ChatGPT (28%), and Gmail (27%) are the most closely scrutinized applications.

Netskope’s recommendations to bolster security include inspecting all HTTP and HTTPS traffic to block malware infiltration—even via legitimate platforms—and deploying rigorous data loss prevention (DLP) policies focused on source code and regulated data. The report also advocates for remote browser isolation (RBI) for high-risk sites, such as newly registered domains, and a strategy of selectively blocking applications, allowing only those with a proven business use, over a permissive approach.

Résumé
Le rapport Netskope Threat Labs (fév. 2025-2026) souligne que le secteur financier a fortement réduit l'utilisation d'applications GenAI personnelles (de 76% à 36%) au profit de solutions contrôlées par les entreprises. Cependant, les données réglementées restent la cible principale des violations (59% des incidents), et les cybercriminels exploitent désormais des plateformes légitimes comme GitHub et OneDrive pour distribuer des malwares. Pour renforcer leur sécurité, les institutions sont recommandées d'inspecter tout le trafic web, de déployer des politiques DLP strictes et d'utiliser l'isolation de navigateur à distance (RBI).

La transformation numérique des institutions financières ne ralentit pas. Mais à mesure que l’intelligence artificielle s’intègre au cœur des processus opérationnels, les enjeux de cybersécurité évoluent avec elle. C’est le constat central du rapport Netskope Threat Labs dédié aux services financiers, dont les données couvrent la période de février 2025 à février 2026.

La Shadow AI recule, mais ne disparaît pas

Bonne nouvelle pour les responsables sécurité : le secteur financier a accompli des progrès significatifs dans la lutte contre l’IA fantôme, ce phénomène qui voit les collaborateurs utiliser des outils d’IA personnels hors de tout contrôle de l’entreprise. En un an, l’utilisation d’applications GenAI personnelles a chuté de 76 % à 36 %, tandis que l’adoption de solutions gérées par l’organisation a bondi de 33 % à 79 %.

ChatGPT reste l’outil le plus répandu, présent dans 76 % des organisations, suivi de Google Gemini (68 %), en progression constante. Google NotebookLM s’est imposé rapidement avec 39 % d’adoption, tandis qu’AssemblyAI, spécialisé dans la transcription vocale, a connu une croissance spectaculaire : de 1 % à 37 % d’utilisation en moins d’un an.

Cette migration vers des environnements maîtrisés répond à une logique de conformité et de gouvernance. Elle ne règle pas tout pour autant : 15 % des utilisateurs continuent d’alterner entre comptes personnels et professionnels, signe que les outils d’entreprise ne répondent pas encore pleinement aux attentes de simplicité des collaborateurs.

Les données réglementées, première victime des violations

C’est là que le bât blesse. Les données les plus sensibles et les plus encadrées réglementairement demeurent la cible privilégiée des incidents de sécurité. Selon le rapport, elles représentent 59 % des violations de politique constatées dans les applications de GenAI, et 65 % dans les applications personnelles.

Viennent ensuite la propriété intellectuelle (20 %), le code source (11 %) et les identifiants ou clés API (9 %). Le défi se complique par un facteur souvent négligé : 97 % des utilisateurs recourent indirectement à l’IA via des fonctions intégrées à leurs outils quotidiens, sans forcément en avoir conscience. Ce usage invisible rend le contrôle d’autant plus difficile à exercer pour les équipes de sécurité.

GitHub et OneDrive, nouveaux vecteurs de distribution de malwares

Les attaquants, eux, ont adapté leurs méthodes. Plutôt que de s’appuyer sur des canaux facilement identifiables comme malveillants, ils exploitent désormais des plateformes cloud légitimes pour diffuser leurs logiciels malveillants. Cette stratégie leur permet de se fondre dans le trafic réseau ordinaire et de déjouer une partie des contrôles de sécurité traditionnels.

GitHub est ainsi devenu la première source de distribution de malwares ciblant le secteur financier, affectant 11 % des organisations. Microsoft OneDrive suit en deuxième position, avec un impact sur 8,2 % des entités. Des environnements de confiance, détournés de leur usage légal, et particulièrement difficiles à filtrer sans risquer de bloquer des usages métier légitimes.

Ce que les institutions bloquent et ce qu’elles recommandent

Face à ces menaces, les organisations financières ont également durci leurs politiques de blocage applicatif. ZeroGPT est l’outil le plus fréquemment interdit (46 % des organisations), suivi de DeepSeek (44 %) et PolitePost (43 %). Du côté de la surveillance, Google Drive (40 %), ChatGPT (28 %) et Gmail (27 %) arrivent en tête des applications les plus étroitement contrôlées.

Pour renforcer leur posture de sécurité, Netskope Threat Labs formule plusieurs recommandations concrètes. En premier lieu, inspecter l’intégralité du trafic HTTP et HTTPS pour bloquer l’infiltration de malwares, y compris ceux qui transitent par des plateformes légitimes. Ensuite, déployer des politiques de prévention des pertes de données (DLP) rigoureuses, en ciblant particulièrement le code source et les données réglementées.

Le rapport préconise également le recours à l’isolation de navigateur à distance (RBI) pour les sites présentant un risque élevé, notamment les domaines nouvellement enregistrés ou récemment observés. Cette technologie consiste à exécuter la session de navigation sur un serveur distant plutôt que sur le poste de l’utilisateur, limitant ainsi l’exposition en cas de contenu malveillant. Enfin, une stratégie de blocage sélectif des applications ( n’autoriser que celles présentant un usage professionnel avéré ) est jugée préférable à une approche trop permissive.

Note : Le rapport Netskope Threat Labs : Services financiers 2026 est basé sur l’analyse de données d’utilisation anonymisées d’un sous-ensemble de clients du secteur, collectées entre février 2025 et février 2026.

The post Le secteur financier pris en étau entre adoption de l’IA et protection des données appeared first on Silicon.fr.

AI Insight
Core Point

金融行业在AI应用激增与数据安全风险加剧的夹缝中求发展,Netskope报告揭示了影子AI使用减少但受监管数据泄露和恶意软件新载体成为主要威胁。

Key Players

Netskope Threat Labs — 网络安全公司,发布金融服务行业威胁报告。

ChatGPT (OpenAI) — 生成式AI工具,在76%的受访金融机构中使用。

Google Gemini — 生成式AI工具,采用率68%。

AssemblyAI — 专注于语音转录的AI服务,采用率一年内从1%飙升至37%。

Industry Impact
  • ICT: 高 — 报告直接针对金融行业网络安全与AI治理。
  • Computing/AI: 高 — 核心围绕生成式AI的采用、安全风险及管控策略。
Tracking

Strongly track — 金融业AI安全治理模式、恶意软件利用合法云平台(如GitHub)的新攻击向量,以及DLP和远程浏览器隔离(RBI)等关键防御技术的采用趋势。

Related Companies
positive
neutral
GitHub
mature
negative
positive
negative
DeepSeek
startup
negative
negative
neutral
Categories
人工智能 网络安全
AI Processing
2026-04-07 19:12
deepseek / deepseek-chat