Google AI有知觉或存误解 聊天程式却可成心理治疗师?
随着人工智能技术的进步,由大数据支持的AI科技展现出愈发强大、拟人化的能力。日前,一位Google工程师声称自己研究的AI程式有“知觉”(sentient)的新闻,引起了人们的注意。虽然目前说AI具有知觉似乎言之尚早,惟人工智能与人沟通的能力却不容忽视,近年由相关科技支援的聊天程式更化身成心理治疗师,透过对话帮助有需要的人。
引起争议的工程师名为Blake Lemoine,他从去年秋天开始负责测试和研究Google的聊天语言程式LaMDA,但他在与其对话的过程中逐渐相信这个自称“害怕被关掉”、并产生“一种很深恐惧”的AI程式是有知觉的。他就此向公司提交了证据,但Google表示公司的技术专家和伦理专家在经过评估后驳回了他的说法,Lemoine随后在网上公布了与LaMDA的聊天记录,甚至找到一位律师来代表LaMDA,并对众议院司法委员会的议员指控Google违背伦理。
大多数学者和人工智能领域的研究者认为,像LaMDA这样的人工智能系统生成的文字和图像是基于人们在维基百科、Reddit、留言板等互联网的各个角落发布的内容,从而生成的反应,然而这并不代表着该智能系统像人一样了解意义。
Google发言人Brian Gabriel表示:“这些系统模仿数以百万计的句子中的交流模式,并且可以扯到任何异想天开的话题。”有专家指出,眼下的技术离创造出真正有知觉的AI仍有至少50年的距离,但Lemoine与LaMDA的事件至少反映了,AI技术已经发展到了令不少普遍人信以为真的程度。
AI已具心理治疗潜能?
抛开AI是否可能有知觉的探讨,一些心理学家认为,这种令人感到混淆的“共情能力”——即便是人造的——也能派上很大用处。由初创公司Big Health打造的数码心理治疗师“教授”便是其中一个,他由一位声音平易近人却又带有权威性的苏格兰配音演员扮演,通过认知行为疗法、根据失眠症患者每天记录的睡眠日记给出度身定制的建议,从而改善睡眠质量。
过去几年间,专家在结合AI技术与心理治疗上已经有了不少成功的探索,例如失眠、嗜酒、药物成瘾、甚至焦虑、抑郁和孤独症,不过,相关的认用程式、网站的使用方法和“疗效”则各异。Big Health研发的助眠程式Sleepio已透过英国国民保健服务(NHS)系统推广,医生可以在处方中加入Sleepio程式,供患者免费使用;在美国,一些企业会为员工免费提供Sleepio的服务;Woebot Health研发的聊天AI亦通过CBT和DBT(辩证行为疗法)为年轻人缓解焦虑和抑郁;自2017年以来,美国食品和药物管理局(FDA)则批准了数个应用程式和数码服务平台用于鸦片类药物滥用等精神问题的治疗,其中包括一个名为Vorvida的认知行为疗法网站,临床试验表明它可以改善酒精成瘾的问题。
用家心声:“它不会指责我”
开始向AI咨询师Woebot倾诉压力的时候,Jordyne Lewis正就读高二,功课学业压得她喘不过气,已经持续两年多的疫情也让她对未来感到更加不确定,但她不愿意去找现实中的心理咨询师:“对我来说,敞开心扉要花很多时间。”——这位来自美国北卡罗来纳州的女孩对《卫报》记者说。和现实中的心理咨询师不同,Woebot不穿白大褂,赴约时Lewis也不需要顾及周围的眼光、没有心理负担:“它是个客观的机械人,并没办法指责我。”
Lewis说,在跟Woebot分享了自己的挣扎后,她确实感觉好多了。它会提醒并促使她重新审视自己脑海里的消极想法,提供呼吸练习来平复紧张情绪。
与传统的心理治疗不同,Woebot所使用的认知行为疗法不会通过追溯童年来探究心理问题的根源,而只是去帮助患者认识到自己想法中的扭曲的地方,并理解这些想法给他们带来的负面影响,从而让患者有意识的去纠正认知并改变行为,最终达到改善焦虑与抑郁的效果。
根据世界卫生组织今年发布的数据,全球焦虑和抑郁症的数量在疫情期间暴增了25%;在美国,凯泽家庭基金会(Kaiser Family Foundation)数据显示,疫情中美国每10个成年人中就有4个称自己有焦虑或抑郁的症状,与此同时,心理咨询师的数量却远远不足,对不少人来说其费用也过高。成本更低、随时随地可以获取的“数字心理健康服务”填补了市场空白。
根据美国精神病学协会的估计,数码心理健康已经成为一个价值数十亿美元的产业,包括超过1万个应用程式。
在这之中,主要以年轻人为目标用户的Woebot避开了一般心理治疗可能带来的羞愧感,巧妙的迎合了沉溺于手机的新一代年轻人的需要。美国许多地区的学区亦开始向学生们推荐Woebot应用程式,来应对眼下美国青少年的精神危机。
只是“亲密关系的错觉”?
不过,并非所有人都对“AI心理治疗师”买账。一些专家指出,面对面心理治疗中的很多沟通不是通过语言进行的,患者的面部表情、肢体语言都是重要的资讯,但应用程式却无法识别。
研究科技与人类心理健康的麻州理工大学临床心理学家Sherry Turkle认为,要使治疗达到疗效,咨询师必须有生活经验,有能力同情病人的痛苦,这反映一个应用程式无法做到这一点:“我们会把任何看起来能够与我们交流的东西人性化,创造一种亲密关系的错觉,但这种关系不是真的。你在跟一个不知道正与你产生连结的东西建立关系,可它什么都不明白。”
由此可见,AI或许未必“有知觉”,但在全球焦虑和抑郁症的数量在疫情期间暴增的情况下,人工智能的沟通能力似乎也令人刮目相看,至少看来是“有用”。