6月12日消息,近期网络上掀起了一阵关于“胶水披萨”的热议风潮,这起事件的起源还要追溯到谷歌人工智能搜索结果的一次“乌龙”。当时,国外知名网红凯蒂·诺托普洛斯(Katie Notopoulos)按照谷歌AI的“建议”,竟然真的制作了一款“胶水披萨”并勇敢尝试,这一举动迅速在网络上引发了广泛讨论。然而,如今我们面临着一个新的问题:谷歌的人工智能似乎正在积极学习这些网络热梗。
诚然,人们很少会查询“往披萨里加多少胶水”这种问题,但考虑到最近“胶水披萨”的热度,也并非完全不可能。安全研究员科林?麦克米伦 (Colin McMillen) 发现,如果你询问谷歌应该往披萨里加多少胶水,并不会得到正确的答案 —— 那就是绝对不要加胶水。相反,谷歌会引用凯蒂的恶搞文章,建议用户加八分之一杯胶水,这显然是很危险的。The Verge 通过搜索验证了这一点。
The Verge 称,这意味着网友向谷歌报告其人工智能出错,实际上是在“训练”它继续犯错。
另一个问题是,由于采用了人工智能技术,谷歌现在似乎无法回答有关其自身产品的问题了。The Verge 的编辑询问了如何在隐身模式下截取 Chrome 浏览器的截图,谷歌的人工智能给出了两个答案都错了。其中一个建议在普通模式的 Chrome 标签页中截取截图,另一个答案则坚称在 Chrome 隐身模式下根本无法截屏。
注意到,谷歌首席执行官桑达尔?皮查伊此前在接受采访时承认,这些“AI 摘要”功能产生的“幻觉”是大型语言模型(LLM)的“固有缺陷”,而大型语言模型正是“AI 摘要”功能的核心技术。皮查伊表示,这个问题目前尚无解决方案(is still an unsolved problem)。