【环球网科技综合报道】2月25日消息,据《时代》杂志最新报道,曾以“安全优先”为核心理念的美国人工智能(AI)创业公司Anthropic,正悄然调整其标志性的风险缓解政策,引发业界对AI安全治理的广泛关注。这家由OpenAI前核心成员创立的公司,此前因坚持“不确保安全绝不训练AI系统”的承诺而备受赞誉,如今却选择放弃这一原则,引发对其责任立场的质疑。
Anthropic自2023年起推行“负责任规模化政策”(RSP),其中核心条款为:在无法充分证明风险缓解措施到位前,绝不训练或发布任何AI模型。这一立场被视为对行业“速度至上”风气的反击,公司高层曾多次公开强调,AI技术若缺乏严格安全管控,可能对人类社会构成灾难性风险。
然而,据《时代》获取信息显示,Anthropic近期对RSP政策进行“彻底改革”,取消了上述关键承诺。随着OpenAI、谷歌等巨头加速推进AI大模型研发,Anthropic面临被边缘化的风险。该公司首席科学官贾里德·卡普兰(Jared Kaplan)在采访中直言:“停止训练AI模型对任何人都没有好处。在技术快速迭代的背景下,若竞争对手领先,我们单方面遵守承诺并不明智。”(青山)