【科技.未来】要取代人类医生 人工智能还欠甚么?
虽然人工智能诊症愈来愈准,但诊断过程是否完美?而即使人工智能诊症能力匹敌人类医生,又是否意味着足以取代医生?
承接上文:【科技.未来】诊症能力媲美人类 人工智能将成未来医生?
虽然AI诊症潜力庞大,但现阶段并非无可挑剔。演算法的能力受限于它的训练数据,若数据不够多元,或会令这些诊断工具带有种族偏见。例如,2017年一项有关儿童智能障碍的研究,就发现Face2Gene对于比利时白人唐氏综合症儿童的诊断准确率为80%,但对刚果黑人只有37%。“我们知道这是需要处理的问题,随着技术改进,偏见会愈来愈少。”Face2Gene开发公司FDNA的技术总监Yaron Gurovich 说。
此外,不是所有疾病都可以用上述方法训练演算法诊断。例如精神障碍的数据便缺乏正确的参考标准。美国国家精神卫生研究院(NIMH)前总监Steven Hyman指出:“你至少需要有一个真正独立、强而有力的判断准则。”以训练演算法诊断皮肤癌为例,训练数据中会有分类清晰的活体组织切片样本,良性还是恶性黑白分明,但精神障碍的数据中没有活体组织切片,至少现阶段如此,“很多人都忘记了这一点。” Hyman说。
现时以样本照片训练演算法或许十分顺利,但Google在印度的试验似乎反映出实地使用如何有别于实验室研究。去年11月,当地一名病人报称视力模糊,遥距医疗中心从地区诊所收到六张照片,虽然部分图片因为设备落后而不够清晰,但医疗中心医生Anusha Arunachalan仍能从照片中看到病人视网膜出血,诊断为增殖性糖尿病视网膜病变(proliferative diabetic retinopathy)。当时医生们决定也让Google诊断,结果其中两张照片被判断为增殖性,两张为严重病变,剩余两张则被指影像太模糊而无法判断。
医疗中心的医生表示,遇上不清晰的照片,他们仍会尽量看当中清晰的部分,但AI无法这样做。带领ARDA团队的Google产品经理及医生彭浩怡(Lily Peng)指,她们正研究如何让ARDA在不同照片质素下运作,为演算法对于照片质素设一下限。当中的挑战在于她们面临一个“取舍”:若容许演算法以模糊的照片诊断,或许无法察觉疾病早期时的微小病变。
过程黑箱作业
美国维珍尼亚大学哲学教授Paul Humphreys指出了AI诊症的另一个问题:机器学习运作就如人脑一样是“黑箱”,亦即我们可以用足够数据训练一个演算法准确辨识一只猫,但无法清楚知道它到底如何做到。
Tsirigos尝试解释自己开发的演算法如何能够辨认出人类医生看不到的肿瘤基因变异:“这些癌症导致的突变似乎有一些极微细的影响,只有演算法才能侦测到。”但到底这些微妙的变化是什么,他坦承“我们不知道”:“它们只藏于演算法之中,没人知道怎样撷取出来。”
史丹福大学癌症研究所生物医学资讯总监Daniel Rubin质疑:“重要的问题在于,它们是否值得信赖、足以取代现有诊断方法?”他认为这一问题的答案有待未来反复确认。
这种不透明衍生出一连串问题。例如我们该如何定夺AI的错失是不幸而无法避免的医疗错误,还是不可接受的医疗疏忽?使用这些AI的医生或医疗机构,若不完全知道诊断工具如何运作,又是否称得上负责任?
去年11月,澳大利亚蒙纳殊大学(Monash University)哲学教授Robert Sparrow在中文大学生命伦理学中心举办的“AI与数码医护工作坊”上,提出了类似的质疑:“即使AI诊断可靠,黑箱问题会令医生和病人难以信任它们……把AI的治疗建议用到病人身上的正当性也将受到挑战。”
但在康乃尔大学精准医疗研究所(EIPM)总监Olivier Elemento眼中,这些问题似乎不太重要。他认为,虽不知道AI如何运作,但放着一个99%正确的测试不用,是十分愚蠢的:“坦白说,这种演算法要应用于临床测试,它不需要完全可以解释,只要可靠就够了。”
医生岂止诊症
当AI展现了卓越的诊症能力,是否有朝一日可以取代人类医生?对于张康的研究,英国图灵研究所(Alan Turing Institute)电脑视觉及机器学习研究员Chris Russell指出,AI诊症的能力虽然强大,但不代表治疗病人可以完全毋须医生,因为诊症系统所用的医疗记录仍需由经训练的专家建立,而他们的知识将是诊断的关键:“总要有人讨论你的症状,然后输入机器中,我看不到这个技术可以完全踢走人类医生。AI可以帮助医生,但要取代医疗专业人士仍有很长的路要走。”
除了担心年资较浅的医生未来或过分依靠AI,而没有充分学习自行诊症之外,Russell还质疑病人是否乐于被AI诊症:“若它作为一个介面推出,直接由病人输入症状,我想他们会十分不安。当你去看医生,你希望感到有人真正关心并照顾你。”
去年12月,同行评审期刊《公共科学图书馆:综合》(PLOS ONE)刊登的一项调查似乎也呼应了这种说法。调查就六个范畴访问了720位英国全科医生,当中高达94%受访医生表示,AI无法做到人类医生般关怀照顾病人。而在分析病人资讯以诊断病症、评估何时转介病人、组织个人化的治疗方案等方面,他们都认为AI无法取代医生;只有在管理档案如更新医疗记录,以及分析病人资讯以预测病情发展方面,才有过半数医生觉得AI有可能代劳。
Sparrow的要求层次更高:“我不认为电脑可以作出道德决定。当在治疗上要把病人价值考虑其中,AI就注定失败。更具争议的地方在于,我不认为机器可为行动提供道德理由。你会不会听Google助理的意见,帮你父亲拔喉?机器不可能像人一样支持自己的立场,因为它们与人的关系不一样,也因为它们无法感受到尴尬或懊悔。”
Butt也不认为Babylon的聊天机械人可取代医生,毕竟医生要做的绝不限于诊症:“关怀照顾不只是诊断病症或处方药物,而是要理解到你的病人是否足以承受你建议的化疗痛苦,理解他们的家人能否在未来几个月给予病人支持。现时没有任何软件能够取代医生的这些功能。”
上文节录自第152期《香港01》周报(2019年3月4日)《协助人类VS取代人类 未来有病就睇AI?》。
更多周报文章︰【01周报专页】《香港01》周报,各大书报摊、OK便利店及Vango便利店有售。你亦可按此订阅周报,阅读更多深度报道。更多人工智能议题文章:
人工智能结合生前数据 人类可得“永生”?以数码化身得“永生” 技术与数据监管成疑