12 月 30 日消息,据《商业内幕》报道,OpenAI 正在招聘一名新的「Head of Preparedness」(备战负责人),年薪为 55.5 万美元(约合 389 万元人民币),并提供期权。

12 月 30 日消息,据《商业内幕》报道,OpenAI 正在招聘一名新的「Head of Preparedness」(备战负责人),年薪为 55.5 万美元(约合 389 万元人民币),并提供期权。
该职位隶属于 OpenAI 的 Safety Systems 团队,负责为模型构建能力评估、威胁建模和缓解措施,搭建一套连贯、严谨且可规模化运行的安全流程,以限制人工智能可能带来的负面影响。
OpenAI CEO Sam Altman 近日在 X 上发文称,这是一个「在重要时刻承担关键角色」的岗位,模型能力正快速提升,不仅已经能完成许多有价值的任务,也开始带来现实挑战。
他特别提到,大模型对心理健康的潜在影响在今年已有「预览」,而在网络安全领域,模型已经「好到开始发现关键漏洞」,这意味着如何防止这些能力被滥用,将是该岗位的核心任务之一。
Altman 在贴文中表示,OpenAI 已有一套较为成熟的能力测量体系,但接下来需要更加细致地理解这些能力可能如何被滥用,并在产品和现实世界中设计出有效的约束机制,让社会在享受 AI 带来的巨大收益时,尽量减少风险。
他强调,这份工作会「非常有压力」,新任负责人将「几乎立刻被丢进深水区」。他还呼吁,对前沿网络安全防御、生物安全以及自改进系统安全性等议题感兴趣的人考虑应聘。
根据职位描述,新任备战负责人将对评估体系和防护策略负直接责任,协调团队构建面向不同威胁场景的测试和安全管线。
该岗位被视为 OpenAI 在模型安全「前置治理」上的枢纽:既要理解和预测模型的能力边界,又要设计出可操作的防范机制,避免模型被攻击者用于网络入侵、生物威胁等高风险用途。
OpenAI 一直宣称其核心使命是「以造福全人类的方式发展人工智能」,并从公司早期就将安全协议视作运营的核心部分。然而,随着产品陆续推出、商业化压力上升,一些前员工曾公开质疑公司在安全与盈利之间的平衡。
一名曾负责 AGI 相关安全研究的前员工在去年发表的博客中称,自己「对公司在接近 AGI 时能否负责任地行事逐渐失去信心」,并指出相关安全团队的人员在过去一年出现较大流失。
OpenAI 早前也因 ChatGPT 在心理健康场景中的使用方式而遭到关注。随着聊天机器人在消费者之间普及,不少用户将其当作「替代性倾诉对象」,在一定程度上加剧了部分案例中的精神健康问题。
去年 10 月,OpenAI 表示正与心理健康专业人士合作,改进 ChatGPT 与存在自伤、妄想等风险用户的互动方式,以减少模型在敏感场景下可能造成的伤害。
在这一背景下,一方面,OpenAI 试图用高薪和更清晰的权责,吸引具备安全、网络攻防或生物风险评估背景的高级人才;
另一方面,这也被视为对外回应质疑、重申安全优先级的信号:在高强度商业化推进的同时,将通过更加系统化的评估和防护机制,来对冲 AI 可能引发的社会风险。