5月29日消息,前OpenAI安全团队联席主管Jan Leike在离开该职位后,已宣布将加入人工智能领域的竞争对手Anthropic公司。Leike在OpenAI期间,一直专注于长期人工智能风险的研究与防范工作,其所在的团队成立于2023年,致力于提升大模型的安全性。
Leike 于 5 月 15 日凌晨宣布辞去 OpenAI 职务,几天后该公司解散了他共同领导的超级联盟小组。该团队成立于 2023 年,专注于长期人工智能风险。5 月 14 日,OpenAI 联合创始人伊利亚·苏茨克弗 (Ilya Sutskever) 在 X 上的一篇文章中宣布离职。
离职时,雷克批评了 OpenAI,称安全文化和流程已经让位于闪亮的产品。周二,OpenAI 组建了一个新的安全团队,由首席执行官山姆·奥特曼 (Sam Altman) 担任。
Leike 表示,他在 Anthropic 的工作重点与他在 OpenAI 的工作类似,即与所谓超人类人工智能模型的控制相关的安全问题。
此类人工智能模型目前尚不存在,但 OpenAI 和 Anthropic 等公司正在研究如果未来建成这些模型,如何对其进行控制。
Leike 表示:我很高兴加入@AnthropicAI,继续完成超级对齐任务。
Leike 周二在 X 上写道 ,我的新团队将致力于可扩展监督、弱到强泛化和自动对齐研究。
知情人士告诉 TechCrunch,Leike 将直接向 Anthropic 的首席科学官 Jared Kaplan 汇报工作,而目前致力于可扩展监督(以可预测和理想的方式控制大规模人工智能行为的技术)的 Anthropic 研究人员将在 Leike 的团队成立后向 Leike 汇报工作。
Anthropic 得到了亚马逊的支持, 其中有承诺向该公司注资40 亿美元(约为289亿元人民币),持有少数股权。
在离开 OpenAI 后的一篇文章中,雷克写道:离开这份工作是我做过的最困难的事情之一,因为我们迫切需要弄清楚如何引导和控制比我们聪明得多的人工智能系统。
自 OpenAI 于 2022 年底推出 ChatGPT 以来,人工智能安全在整个科技领域迅速受到重视,引发了生成式人工智能产品和投资的繁荣。一些业内人士表示担忧,公司在没有充分考虑潜在社会危害的情况下,过快向公众发布强大的人工智能产品。
微软支持的 Open AI周二表示,它成立了一个由高级管理人员领导的新安全委员会,其中包括首席执行官 Sam Altman。该委员会将向公司董事会推荐OpenAI 项目和运营的安全决策。
Anthropic 由兄弟姐妹 Dario Amodei 和 Daniela Amodei 以及其他前 OpenAI 高管于 2021 年创立,自称是一家更注重安全的人工智能公司,并于 3 月推出了 ChatGPT 竞争对手 Claude 3。该公司已获得谷歌的资助,此外还有亚马逊的资助。
Leike 尚未回应置评请求。