AI人工智能将青苹果认错成iPod?专家简单一招即上当超易被骗

撰文: T客邦
出版:更新:

拥有机器学习能力的 AI 产品越来越常见,但有时 Bug 居然会出在人类想不到的地方。近日,OpenAI 的研究人员发现一件不太寻常又带点趣味的事情,那就是用以照片内容辨识的图像视觉 AI,居然会对人类的手写标签产生误会,将读到的“字串”直接覆盖掉原本 AI 所辨识正确的“物体”,因此产生了错误的结果。

举例来说,原本 AI 判定图片所呈现的东西,为一颗新鲜的澳大利亚青苹果,但若人类在水果表面贴上了写著“iPod”的纸条,AI 最终会告诉你,这东西不是青苹果而是一台 iPod。这种明摆著“指鹿为马”的行为,被研究人员定名为“印刷攻击”(typographic attacks)。

▼▼▼点击即睇两套实验,这个AI完全被文字骗了……▼▼▼

+4

OpenAI 研究人员指出,“印刷攻击”的成因事实上源于 AI 强大的视觉辨识技术,也就是人工智慧读取文本的能力,尤其拥有手写文字的照片,经常成功“欺骗”AI 以产出错误的结果。

这种看似有趣的 Bug,事实上对依赖视觉辨识系统的各种科技,产生了显而易见的高度风险。

比方说,假设特斯拉(Tesla)的自动驾驶 AI,读取到了路牌上刻意被人为窜改的错误标签,就有机会成功欺骗 AI,因而做出错误的驾驶行为与判断。印刷攻击对于从医学到军事,各种 AI 应用来说都是相当严重的威胁。

延伸阅读:AI智能真的拥有智慧?机械人吟诗完胜资深诗人,现时发展是什么程度?▼▼▼

+7

在 OpenAI 中出问题的部分,是个被称为 CLIP 的实验系统,目前尚未在任何商业产品中部署。研究人员指出,导致 CLIP 遭受印刷攻击的另一项因素,其实来自于 AI 的训练方法。

研究人员对 CLIP 采取极度放任的学习策略,在没有严格监督跟过滤的状况下,它在互联网上收集了高达 4 亿张图文,借此成为识别物品内容的基础。因此,CLIP 几乎可以辨认“任何东西”,从字串、草图、卡通化图片到实际照片,都能给出结果并归类成同一项内容,这代表 AI 也可以像人类一样,将学习到的知识进行内部化。

人类可以清楚明白“青苹果”与“写著 iPod 纸条”之间的区别,但如 CLIP 这类的 AI,在没有限定条件的状况下却办不到,OpenAI 研究人员觉得这就是一种“抽象化谬误”(fallacy of abstraction)。

透过互联网上的无限制内容训练 AI 的结果,也使得 CLIP 出现了人类也会具备的偏见。在 CLIP 的神经互联网逻辑中,“中东”跟“恐怖主义”互相关联,“黑人”可能会被误认成“大猩猩”,这些都说明了“人工智慧”与“人类”之间依然还有著相当大的不同。

【本文获“T客邦”授权转载。】