AI 对手发展太快,Anthropic 放弃重要安全承诺

2 月 25 日,据《时代》杂志报道,美国 AI 创业公司 Anthropic 取得了巨大成功,并自诩为顶级 AI 研究实验室中最注重安全的公司。但是,Anthropic 高管告诉《时代》,该公司正放弃其旗舰安全政策的核心承诺。

AI 对手发展太快,Anthropic 放弃重要安全承诺

Anthropic 曾在 2023 年承诺,除非能提前保证拥有足够的安全措施,否则绝不训练 AI 系统。这一承诺成为了 Anthropic“负责任扩展政策”(RSP) 的核心支柱。多年来,Anthropic 高层一直将这一承诺吹捧为他们是一家负责任、能够抵御市场诱惑、不急于开发具有潜在危险技术的公司的有力证明。

但是最近几个月,该公司决定对 RSP 进行彻底改革。这一决定包括放弃原先的承诺,即如果无法提前保证适当的风险缓解措施,就不会发布 AI 模型

Anthropic 首席科学官贾里德 · 卡普兰 (Jared Kaplan) 在接受《时代》独家采访时表示:“我们认为,停止训练 AI 模型实际上对任何人都没有帮助。随着 AI 的快速发展,我们并不觉得在竞争对手快速推进的情况下,我们做出单方面承诺是合理的。

《时代》查阅的 Anthropic 新版政策包括:承诺在 AI 安全风险方面更加透明,包括额外披露 Anthropic 自有模型在安全测试中的表现;承诺在安全方面的投入与努力要达到或超越竞争对手的水平;它还承诺,如果领导层认为 Anthropic 是 AI 竞赛的领跑者,并且认为发生灾难性风险的可能性很大,那么他们将“推迟”Anthropic 的 AI 开发进程。

但总体来看,RSP 的这一调整让 Anthropic 在安全政策上受到的约束大幅减少。此前,该政策明确禁止公司在没有适当安全措施的情况下,训练超过特定水平的模型。

目前,Anthropic 面临来自 OpenAI、埃隆 · 马斯克 (Elon Musk) 旗下 xAI 以及谷歌等竞争对手的激烈竞争,这些对手都在定期发布尖端工具。同时,该公司也与美国国防部就其 Claude 工具的使用方式陷入争执。此前,Anthropic 已告知五角大楼,这些工具不得用于国内监控或致命性自主行动。但是,美国国防部也向 Anthropic 发出最后通牒,如果限制使用就解除 Anthropic 的合同。

Anthropic 表示,此次安全政策的调整是基于 AI 发展速度以及联邦层面缺乏相关法规而做出的更新。

Anthropic 发言人表示,此次调整旨在帮助公司在不均衡的政策背景下与多家竞争对手抗衡。在这种环境中,公司必须自行判断安全防护措施是否足够。她还表示,这一安全承诺与五角大楼的谈判无关。

“政策环境已转向优先考虑 AI 的竞争力和经济增长,而安全导向的讨论尚未在联邦层面获得实质性进展。”Anthropic 在宣布这一调整的博客文章中表示。该公司称,仍致力于遵循行业领先的安全标准。

声明:内容来源公开的各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。
资讯

OpenClaw 之父:80% 的现有 App 将消失

2026-2-25 12:27:30

资讯

谷歌开放 ProducerAI:为音乐人提供从作词、编曲到混音的全链路 AI 创作支持

2026-2-25 12:30:59

搜索