OpenAI启动OpenAI安全奖学金计划,以加强人工智能安全。

OpenAI lance l’OpenAI Safety Fellowship pour renforcer la sécurité de l’IA

Silicon.fr by Philippe Leroy 2026-04-08 10:15 Original
摘要
OpenAI宣布启动"OpenAI安全研究员计划",旨在加强AI安全研究。该计划面向独立研究人员、工程师及从业者,提供每周3850美元津贴和每月约1.5万美元的计算资源,重点支持AI安全评估、伦理、系统鲁棒性等实证研究。同时,OpenAI还推出了专门针对AI滥用风险的公开漏洞赏金计划,最高奖励7500美元,以应对行业对AI安全人才的激烈竞争。

OpenAI推出OpenAI安全研究员计划,旨在加强人工智能安全研究。该计划面向希望从事AI安全与对齐研究的独立研究人员、工程师及从业者,项目周期为2026年9月14日至2027年2月5日。

这是一个开放且跨学科的项目,候选人背景可扩展至社会科学或网络安全领域。重点研究方向包括:安全性评估、伦理、系统鲁棒性、大规模风险缓解方法、隐私保护安全方案、自主智能体监督以及高严重性滥用场景。OpenAI强调优先寻求基于实证、技术扎实且对更广泛研究社区有实用价值的工作。

入选研究员将获得可观的资源支持:每周3850美元津贴,以及每月约1.5万美元的计算资源配额,以确保其能专注于研究工作。他们还将获得OpenAI内部导师指导,并与同行协作。项目在伯克利Constellation设有办公空间,但也允许远程参与。项目结束时,每位参与者需提交具体成果,如研究论文、新数据集或对AI社区有益的基准测试。

该研究员计划是OpenAI更广泛安全战略的一部分。今年3月底,公司还推出了专门的AI安全漏洞赏金计划,作为现有网络安全漏洞赏金项目的补充。新计划聚焦于识别OpenAI产品中与AI相关的滥用及安全风险,即使不符合传统安全漏洞标准但存在显著滥用风险的报告也被接受。覆盖场景包括第三方提示词注入、Atlas Browser、Codex或Operator等自主智能体相关风险,以及可能被利用造成实际损害的MCP连接器漏洞。研究人员提交可复现的高严重性问题报告并提供具体建议,最高可获得7500美元奖励。报告通过Bugcrowd平台提交,由OpenAI安全和安全团队共同处理。

此项举措的推出正值AI安全人才竞争加剧之际。OpenAI研究员计划的薪酬结构——每周3850美元津贴和每月1.5万美元计算资源——与Anthropic的同类项目完全一致,表明这已成为行业吸引顶尖AI安全研究人员的标准配置。值得注意的是,Anthropic近期也宣布开放2026年5月和7月启动的两批研究员招募,研究方向已扩展至大规模监督、对抗鲁棒性、AI控制及模型福祉等领域。

申请截止日期为2026年5月3日,录取结果将于2026年7月25日前公布。

Summary
OpenAI has launched the OpenAI Safety Fellowship, a program running from September 2026 to February 2027, offering independent researchers a $3,850 weekly stipend and substantial computing resources to work on AI safety and alignment. This initiative, which mirrors a similar program by Anthropic, is part of a broader strategy that includes a new public Safety Bug Bounty program focused on identifying AI abuse and security risks in OpenAI products. The moves highlight the intensifying competition among AI firms to attract top safety research talent.

OpenAI has launched the OpenAI Safety Fellowship, a new program aimed at independent researchers, engineers, and practitioners focused on AI safety and alignment research. The fellowship will run from September 14, 2026, to February 5, 2027, with applications open until May 3, 2026. Selected candidates will be notified by July 25, 2026.

Designed as an open and multidisciplinary initiative, the program welcomes applicants from fields including social sciences and cybersecurity. Priority research areas encompass security evaluation, ethics, system robustness, large-scale risk mitigation methods, privacy-preserving security approaches, autonomous agent oversight, and high-severity misuse scenarios. OpenAI emphasizes a preference for empirically grounded, technically sound work that benefits the broader research community.

Participants, or "fellows," will receive substantial support, including a weekly stipend of $3,850 and approximately $15,000 per month in compute resources. They will also benefit from mentorship by OpenAI internal experts, peer collaboration, and access to a workspace at Constellation in Berkeley, though remote participation is permitted. A key expectation is that each fellow produces a concrete output, such as a research paper, a new dataset, or a benchmark useful to the AI community.

This fellowship is part of a broader safety strategy OpenAI unveiled in late March, which also included the launch of a public Safety Bug Bounty program. This complementary initiative specifically targets the identification of AI abuse and security risks within OpenAI products, accepting reports on significant abuse risks even if they don't meet traditional security vulnerability criteria. Covered scenarios include third-party prompt injections, risks from autonomous agents like Atlas Browser, Codex, or Operator, and exploits in MCP connectors that could cause real-world harm. Researchers can earn up to $7,500 for detailed, reproducible high-severity reports with concrete recommendations, submitted via the Bugcrowd platform and reviewed jointly by OpenAI's Safety and Security teams.

The launch occurs amid intensifying competition among AI firms to attract top safety researchers. Notably, the fellowship's structure—with its identical $3,850 weekly stipend and $15,000 monthly compute allocation—directly aligns with the program offered by rival Anthropic, suggesting these figures are becoming an industry standard for high-level AI safety talent. Anthropic recently opened applications for two new cohorts of its own fellowship, starting in May and July 2026, which has expanded its focus to include large-scale oversight, adversarial robustness, AI control, and model well-being.

Résumé
OpenAI lance une "Safety Fellowship" offrant une allocation et des ressources de calcul à des chercheurs indépendants pour travailler sur la sécurité et l'alignement de l'IA, avec des livrables attendus comme des articles ou des jeux de données. Cette initiative s'accompagne d'un programme public "Safety Bug Bounty" récompensant jusqu'à 7 500 $ pour identifier les risques d'abus dans ses produits. Ce lancement s'inscrit dans une concurrence accrue pour les talents, avec des conditions financières identiques à celles du programme similaire d'Anthropic.

OpenAI lance l’OpenAI Safety Fellowship pour renforcer la sécurité de l’IA. Le programme est destiné à des chercheurs, ingénieurs et praticiens indépendants, souhaitant mener des travaux de recherche sur la sécurité et l’alignement de l’intelligence artificielle. Le programme se déroulera du 14 septembre 2026 au 5 février 2027 *.

Un programme ouvert et pluridisciplinaire

Cette fellowship est également ouverte à des profils issus des sciences sociales ou de la cybersécurité, élargissant ainsi le spectre des candidats potentiels.

Plusieurs domaines prioritaires sont identifiés : l’évaluation de la sécurité, l’éthique, la robustesse des systèmes, les méthodes d’atténuation des risques à grande échelle, les approches de sécurité préservant la vie privée, la supervision des agents autonomes, ainsi que les scénarios de mésusage à haute sévérité. OpenAI indique rechercher en priorité des travaux empiriquement fondés, techniquement solides, et utiles à la communauté de recherche au sens large.

Des moyens substantiels pour les fellows

Le programme prévoit une allocation hebdomadaire de 3 850 $ ainsi qu’un accès à des ressources de calcul d’environ 15 000 $ par mois pour permettre aux candidats retenus de se consacrer pleinement à leurs travaux.

Les « fellows » bénéficieront également d’un accompagnement par des mentors internes d’OpenAI et d’une collaboration avec leurs pairs. Un espace de travail est prévu à Berkeley, au sein de Constellation, bien que la participation à distance soit également autorisée.

À l’issue du programme, OpenAI attend de chaque participant une contribution concrète : article de recherche, nouveau jeu de données ou benchmark utile à la communauté de l’IA.

Un volet bug bounty dédié à la sécurité de l’IA

Cette fellowship s’inscrit dans une stratégie plus large dévoilée fin mars avec le lancement d’un Safety Bug Bounty public, venant compléter son programme existant de bug bounty dédié à la cybersécurité.

Ce nouveau programme se concentre spécifiquement sur l’identification des risques d’abus et de sécurité liés à l’IA au sein des produits OpenAI. Les signalements qui posent des risques d’abus significatifs, même lorsqu’ils ne répondent pas aux critères d’une vulnérabilité de sécurité classique, sont acceptés.

Les scénarios couverts incluent notamment les injections de prompt tierces, les risques liés aux agents autonomes comme Atlas Browser, Codex ou Operator, ainsi que les failles dans les connecteurs MCP susceptibles d’être exploitées pour causer un préjudice réel.

Les chercheurs peuvent être récompensés jusqu’à 7 500 $ pour des rapports détaillant des problèmes reproductibles de haute sévérité, assortis de recommandations concrètes.  Les soumissions sont hébergées sur la plateforme Bugcrowd et instruites conjointement par les équipes Safety et Security d’OpenAI.

Une initiative dans un contexte de compétition pour les talents en sécurité IA

Le lancement de ce programme intervient dans un contexte de concurrence accrue entre les entreprise d’IA pour attirer les meilleurs chercheurs en sécurité.

La structure de la fellowship d’OpenAI s’aligne sur celle du programme proposé par Anthropic. qui propose exactement les mêmes niveaux de rémunération hebdomadaire (3 850 dollars) et d’allocation de calcul mensuelle (15 000 dollars). Cela suggère que ces montants sont devenus des standards dans l’industrie pour attirer les chercheurs de haut niveau spécialisés en sécurité IA.

Pour rappel, Anthropic a de son côté récemment annoncé l’ouverture de candidatures pour deux nouvelles cohortes de son propre programme, débutant en mai et juillet 2026. Les domaines couverts intègrent désormais la supervision à grande échelle, la robustesse adversariale, le contrôle de l’IA, et le bien-être des modèles.

*Les candidatures sont ouvertes jusqu’au 3 mai 2026. Les candidats retenus seront informés d’ici le 25 juillet 2026.

The post OpenAI lance l’OpenAI Safety Fellowship pour renforcer la sécurité de l’IA appeared first on Silicon.fr.

AI Insight
Core Point

OpenAI launched a competitive fellowship and bug bounty program to attract top AI safety researchers and proactively identify system risks, directly responding to industry talent competition.

Key Players

OpenAI — AI research and deployment company, based in San Francisco, USA.

Anthropic — AI safety research company, based in San Francisco, USA.

Bugcrowd — Crowdsourced cybersecurity platform, based in San Francisco, USA.

Industry Impact
  • Computing/AI: High — Establishes new standards for funding and compute access in critical AI safety research.
  • ICT: Medium — Promotes security and risk mitigation practices for large-scale AI systems.
Tracking

Strongly track — This program sets a financial and strategic benchmark in the high-stakes competition for AI safety talent and research direction.

Highlights
Investment / Funding Upcoming Event
Related Companies
positive
OpenAI
mature
positive
Anthropic
startup
neutral
positive
Categories
人工智能 网络安全 创业
AI Processing
2026-04-08 13:18
deepseek / deepseek-chat