【科技.未来】不问“为什么” AI可有真正智能?

撰文: 孔祥威
出版:更新:

本月初,Google再次发表人工智能(AI)应用医疗研究成果,显示AI诊断乳癌的准确率能匹敌人类医生。过去几年,几乎每数个月就有一宗类似的消息,包括在糖尿病视网膜病变、肾病、肺癌、脑瘤等诊断上。当这些成果愈来愈多,人们难免期待:AI可否在诊症之余知道疾病的成因?现时单凭数据深度学习的AI,其智能能否进一步发挥?

承接上文︰【科技.未来】AI诊症匹敌人类医生 可否知疾病成因?

问“为什么”的AI

2018年图灵奖得主Yoshua Bengio认为,即使深度学习在理想化的情况中表现不错,但若无法超越规律辨识,进而学习因果,AI将远远无法接近人类智能,也无法发挥它最大的潜力,也不会出现真正的AI革命:“整合因果到AI是一件大事。现时机器学习的进路都假设,经训练的AI系统会被应用到与训练数据同类的数据,但现实生活中却不是这样。用来推理的那些高阶概念都倾向是一些因果变项,你不会以像素(pixel)来推理,你会以门、门把、开、关来推理。因果对于机器学习下一步的进展十分重要。”换言之,深度学习需要开始问“为什么”。

Bengio指出,现时AI只能从数据中找出规律,但欠缺推理能力。(Ecole polytechnique)

部份学者也同意上述观点。纽约大学心理学荣休教授Gary Marcus 2018年在《纽约时报》撰文反驳AI能解决假新闻的论调,当中就提到:“因果关系正是当代机器学习技术开始跌撞之处。”他对《经济学人》解释:“现有的系统太过表面。前沿的机制(例如深度学习)从庞大数据组中辨别出一个又一个关联,但只是一个很浅的层次。一个机器学习系统或许能够从满布皱纹的皮肤学识辨认出大象,但它不知道象鼻的意义……若你不理解一只动物或象鼻是什么,你便无法推断一头大象会做什么。对一张图片的分类,与推断一头被放生在时代广场的愤怒大象会做什么,并不是同一回事。人类思维中有种通用性,不能单靠关联就能补足。”

凭借因果研究而获颁2011年图灵奖的计算机科学家Judea Pearl,也在2018年出版的著作《The Book of Why: The New Science of Cause and Effect》指出,AI若缺乏某种因果推理能力,其能力将会从根本上受到限制。

Pearl提出因果的三个层级(见图),可助我们知道某个AI模型能够回答什么程度的问题。绝大部份机器学习的方法都只在第一级“关联”(association),例如“这症状可告诉我有关疾病的什么信息”?高一级的是干预(intervention),可估算某个行为的效果,例如“若我服食阿士匹灵会怎样,我的头痛会否痊愈”?最高境界是反事实(counterfactuals),需要运用回溯性,即对于假设情况的推理,让我们估算未观察到的结果,例如“是否那粒阿士匹灵治好了我的头痛”?

按Judea Pearl的三个因果层级,现时的AI只有第一级“关联”的能力。(香港01制图)

Marcus去年再在《纽约时报》呼吁:“我们需要停止建立那些通常使用深度学习、单纯擅长侦测数据组中统计规律的电脑系统,而应开始建立一些从一开始就能捉紧时间、空间和因果这三种概念的电脑系统。”

Bengio也想改变AI这种现况。他的实验室正研究一种深度学习,可以辨识简单的因果关系。他们利用一个数据组,展示了一些真实现象因果关系的机会率,例如吸烟和肺癌。演算法基本上会产生一个假设,比如哪些变项在因果上相关,然后测试如何改变不同变项才合乎假设的理论。最终它应该有能力辨认出,即使癌症与其他因素有所关连,例如到医院就诊的次数,但吸烟不但与癌症相关,还会导致癌症。

Marcus乐见Bengio对因果推理的研究兴趣,认为这代表学界出现某种思潮转变:“太多深度学习都专注于‘关联’而忽略‘因果’,这经常会令深度学习系统在有别于它们受训练的环境中测试时容易迷失。”事实上,人类的经验已提供了宝贵的一课:“当小孩子问‘为什么’,他们在问因果关系。若机器开始问为什么,它们将会聪明得多。”

就如人类不需要身历意外才从中学懂安全驾驶,Bengio认为真正智能的AI亦然。图为隶属通用汽车的Cruise最新发表、无軚盘、无脚踏的自动驾驶汽车Origin。(路透社)

“不可信”的AI

搞清因果关系会令现有的AI系统更聪明和有效。若果机器能够理解物件堕下会破烂,就不需要掷下一堆花樽到地上来告诉它会发生什么。Bengio说自动驾驶汽车开发亦如是,“人类不需要经历大量交通意外才会小心驾驶”,他们只需要想像意外,“在心理上准备好意外万一发生。”

同一能力对未来医疗也有类似好处。哈佛大学陈曾熙公共卫生学院兼任助理教授Sema Sgaier及生物统计学、人口健康与数据科学讲座教授Francesca Dominici在去年11月出版的《哈佛商业评论》中说,可利用因果演算法找出癌症潜在成因来开发新药,并找出适合接受这些药物的病人:“在健康领域,了解因果关系的标准方法是随机对照试验(RCT),但昂贵又耗时,也不能完全代表不同类型病人……因果AI演算法可从观察数据推断因果关系,告诉我们不同因素如何互动……可以进行‘如果……会怎样’的模拟,例如,把治疗剂量增至10倍,对疾病结果有什么影响?”

一些专认为,懂因果的AI将可有助加快新药开发和预测病情,制订更适合病人的治疗。(Getty Images)

约翰霍普金斯大学(JHU)计算机科学助理教授Suchi Saria正以一个反事实模型,从深切治疗部洗肾病人数据中的肌酸酐(creatinine)浓度(会在肾衰竭时上升)建立模型,可因应不同病人情况,建议不同的洗肾方式和时段。

但是,因果推断AI的研究才刚开始。对于现有那些表现最好、最复杂却又无法解释的AI,Marcus甚有保留:“我们不应该只因为现时的AI无法解释其答案而怀疑它,更重要的是,它根本就不足以信任。”

Marcus认为即时现时表现最佳的AI也不值得信任,因为以它们所依赖的技术,根本无法称得上真正智能。图为AI面试系统HireVue。(HireVue官网)

Marcus认为,社会上之所以充斥对于AI未来的负面预测或想像,一大原因正是AI现时仍然流于辨识数据之间的规律,与真正的智能有很大的距离:“反乌托邦的预期之所以出现,很大程度是基于现时没有思想的AI系统而推想出来。若能够计算的只有统计关联,就无法把伤害概念化。但能够理解时间、空间和因果关系的AI系统,可被操控为依从更为整体的指令,例如‘一个机器不可伤害人类,或透过不作为而让人类受伤’(科幻小说家艾西莫夫 ─Issac Asimov提出的《机器三大定律》之首)的指令。”

在《Rebooting AI: Building Artificial Intelligence We Can Trust》一书中,Marcus几乎把现时深度学习的问题和局限归纳为信任问题。他向《麻州理工科技评论》解释:“因为我认为这正是现况。我们正身处历史中一个奇怪的时刻,我们对不值得信任的机器给予很多信任。我想现时的忧虑并非永久的,或者不需要一百年后,AI将能够值得我们信任。但现时AI很危险,不过不是马斯克(Elon Musk)所担心的那样(他预期AI能力会超越人类,人脑接驳AI是人类能赶上的不二法门),而是诸如AI工作面试系统对女性的歧视之类。这无关编程人员的操作能力,只是因为他们所用的技术本身太过简单。”

相关文章︰

从数据寻找最佳配方 AI可满足人类味蕾?

AI研发新口味 人类厨师将被取代?

当AI能预防受伤 分析比赛 将如何改变运动产业?

AI任球探裁判评述 成也数据败也数据?

阻止不当内容与自杀 AI协助社交媒体“消毒”

社交网络以AI“消毒” 但AI可判断“不当”内容?

新药研发低迷 AI可如何颠覆生态

AI用数据研制新药 反而是它的最大局限?

未来制药专家 将由AI取代人类?

上文节录自第198期《香港01》周报(2020年1月20日)《诊症媲美医生 但AI可知疾病成因?》

更多周报文章︰【01周报专页】

《香港01》周报,各大书报摊及便利店有售。你亦可按此订阅周报,阅读更多深度报道。