力撑Google前工程师?内地专家曝:AI与人边界模糊 或将超出控制
自今年6月以来,Google一名工程师称某AI聊天机械人可能具有自己的“意识”,并称该AI“令人印象深刻的语言技巧背后,可能还隐藏着一颗具备感知能力的心”。涉事工程师最终被Google解雇,但他留下的有关人工智能的话题仍在网上发酵。
中国科学技术大学教授、中国人工智能学会AI伦理工作委员会负责人陈小平接受《中新社》访问提到,与科学的边界不同,AI与人类之间“人文的边界”已非常模糊,如果AI真的具备人格、情感、道德,一般能力又超过人类,就会出现可控性问题,“到那时人类凭甚么能够控制AI?”,他认为要提前防范此事。
陈小平说,依据科学判断,AI是没有人格的。另一方面,导致这位Google员工认为AI有“人格”有其客观原因,比如他可能对这个AI系统产生了共情。
5年前他就做过预测,类似的现象未来会愈来愈多地出现。陈小平认为,目前对人工智能存在不同理解。按图灵的观点,人工智能只是模仿人类的某些功能,而且这种模仿不要求必须和人的工作原理相同。比如 Alpha Go 具有下围棋的功能,但它下围棋的原理与人是完全不同的,因此没有人格或人的情感、意识、道德等。
陈小平说,但AI可以模仿人的语言、情感等功能,让人对AI产生共情,于是一部分人就会认为,“AI是人,或具有人的某些精神品质”,AI和人相比除了硬件都相同,也可以有人格、有情感、有道德。退一步说,仅仅因为AI在科学上没有情感等人类品质,就可以排除或禁止一个人对AI产生共情吗?这属于人文的边界,这个边界至少目前非常模糊。
他续指,如果我们认为AI有人格,肯定会带来很多困扰和负面后果,有些后果非常严重。例如若要将其视为人,是不是要给它人类的权利,包括生存权、财产权、投票权等?甚至无论AI做了甚么危害人类的事情,都要像对待人一样对待AI。
“几乎可以肯定的是,只要AI能够模仿一种功能,那AI的这种功能迟早会比人强,就像Alpha Go下棋一样。如果AI的通用能力也超过人,到那时人类凭甚么能够控制AI?这是个疑问。我们现在就要思考这样的问题,提前做好风险防范。”他说,现在人工智能已经让一些人产生了共情,将来会让愈来愈多的人产生共情,这件事客观存在,将给人机关系、人际关系带来巨大的新挑战和新机遇,是新的重大课题。
他指出,人工智能应该分为人还是物,或许有第三种可能,将其看成“非人非物的第三种存在物”。科学上,它不是人;从人文的角度说,它不是物。这种观点与根深蒂固的“二元论”是根本不同的,所以人工智能带来的颠覆实际上远超科技范畴。如果以这种观点考虑,能化解很多矛盾和难题,包括法律难题,而且可以让科学与人文在某种程度上重新“握手言和”;但其中仍有挑战,例如人类爱上人工智能等。