6月5日,CNN报道了OpenAI内部一群人士对人工智能风险及公司内部透明度问题的深切关注。这一事件不仅揭示了人工智能行业的潜在风险,还引发了关于如何保护那些对技术表达担忧的员工的讨论。这群内部人士强调了人工智能的严重风险。随着技术的飞速发展,人工智能已经在许多领域展现出强大的能力,但同时也带来了不容忽视的风险。从数据隐私泄露、算法偏见,到更为严重的自主决策失控等问题,人工智能的潜在风险正在逐渐显现。OpenAI作为人工智能领域的领军企业,其内部人士对风险的警觉无疑为整个行业敲响了警钟。
周二发布的一封公开信写道:人工智能公司有强大的经济动机来逃避有效的监管。
这封信由包括病毒式传播的 ChatGPT 工具的创造者 OpenAI 在内的人工智能公司的现任和前任员工签名。
他们还呼吁人工智能公司培育开放批评的文化,欢迎而不是惩罚那些敢于表达自己担忧的人,特别是在法律难以跟上快速发展的技术的情况下。
该组织写道,企业已经认识到人工智能带来的严重风险——从操纵到失去控制,即所谓的奇点,可能会导致人类灭绝——但他们应该做更多的工作来教育公众了解风险和保护措施。
人工智能员工表示,按照目前的法律规定, 他们不相信人工智能公司会自愿分享有关该技术的关键信息。
因此,现任和前任员工必须直言不讳,公司也不要强制执行“诽谤”协议或以其他方式报复那些提出 风险相关担忧的人。
该组织写道:普通的举报人保护措施是不够的,因为它们侧重于非法活动,而我们所担心的许多风险尚未受到监管。
他们的信函发布之际,各家公司正迅速采取行动,将生成式人工智能工具应用于其产品,而政府监管机构、公司和消费者则在努力寻找负责任的使用方式。
与此同时,许多技术专家、研究人员和领导人呼吁暂时停止人工智能竞赛,或要求政府介入并暂停人工智能竞赛。
OpenAI 的回应
在回复这封信时,OpenAI 发言人告诉 CNN,该公司为我们提供最强大、最安全的人工智能系统的记录感到自豪,并相信我们应对风险的科学方法,并补充说,该公司同意鉴于这项技术的重要性,严谨的辩论至关重要。
OpenAI 指出,它有一个匿名诚信热线和一个由董事会成员和公司安全负责人领导的安全委员会。该公司不会出售个人信息、建立用户档案,也不会使用这些数据来针对任何人或出售任何东西。
但这封信的组织者之一、曾在 2018 年至 2021 年期间在 OpenAI 工作的早期机器学习工程师丹尼尔·齐格勒 (Daniel Ziegler) 告诉 CNN,对该公司对透明度的承诺保持怀疑很重要。
「从外部很难看出他们对安全评估和找出社会危害的承诺有多认真,尤其是在商业压力如此之大的情况下。」他说。「拥有正确的文化和流程非常重要,这样员工在有顾虑时就可以有针对性地表达自己的想法。」
他希望更多人工智能行业的专业人士能够公开表达他们对这封信的担忧。
与此同时,人们普遍预计苹果将在其年度全球开发者大会上宣布与 OpenAI 合作,将生成式人工智能引入 iPhone。
苹果首席执行官蒂姆库克 (Tim Cook)在 5 月初公司最近一次财报电话会议上表示:我们将生成式人工智能视为我们产品的一个关键机遇,并相信我们在这方面具有优势。