马斯克的警告是对的 应对AI技术爆炸的关键是以道驭术

撰文: 邓峰
出版:更新:

最近,正当世人尚在惊叹ChatGPT、GPT-4所代表的人工智能(AI)技术突飞猛进时,著名科技领域企业家马斯克(Elon Reeve Musk)联合上千名企业家和科技专家发表公开信,呼吁实验室暂停开发比GPT-4更强大的AI系统,暂停时间至少6个月。他们建议共同制定和实施一套安全标准,防止AI技术可能带来的潜在风险。

他们的建议是有道理的。本来过往人类历史已经证明,技术爆炸具有两面性,既会带来的生产力的进步,为人们生活和工作创造便利,又会带来一些负面效应。为技术爆炸建立一道防护栏,尽可能让技术发展在可控轨道上进行,是合理的选择。尤其重要的是,与以前人类社会的技术有所不同,AI技术指向的是对人类存续极为关键的智能,是否会造成普遍的弃民,是否产生自主意识,存在不确定性。

关于这一点,对AI技术有专门研究的麻州理工学院物理系终身教授迈克斯·泰格马克(Max Erik Tegmark)在他的著作《生命3.0:人工智能时代人类的进化与重生》中写过:“如果人工智能始终保持进步的势头,将越来越多的工作自动化……许多人对就业形势十分乐观。他们认为,在一些职业被自动化的同时,另一些更好的新工作会被创造出来。毕竟,过去也发生过类似的事情……还有一些人对就业形势十分悲观。他们认为,这一次和以前不一样,空前庞大的人群不仅会失去工作,甚至会失去再就业的机会……一些职业乐观主义者认为,在体力职业和脑力职业之后,会出现一波新的职业,这就是创造力职业。但职业悲观主义者却反驳说,创造力只是另一种脑力劳动而已,因此最终也会被人工智能所掌握。”

关于AI会否统治人类,他认为:“我们现在之所以能统治地球,是因为我们比其他生命更聪明。那么,如果出现一个比我们更聪明的超级智能,那它同样也可能会推翻我们的统治……超级智能或许会促成更大宇宙尺度上的合作,但是,它最终会导致极权主义和由上而下的控制,还是会赋予个体更多权力,目前尚不清楚。”

ChatGPT母公司OpenAI于2023年3月14日推出最新人工智能模型GPT-4。(OpenAI网站)

对待AI技术的发展,目前乐观和悲观的声音都有,很难说孰对孰错。对于悲观者来说,不应否认的是技术在许多时候具有一定的中立性,AI技术是有可能造福人类。不妨设想一下,假若有一套行之有效的防护机制和分配机制,AI技术一旦实现大飞跃,能以较低成本生产出大多数人类所需的产品和服务,那么古往今来许多人都曾梦想过的人类的解放便不再遥远。对于乐观者来说,不能忽视合理限度的监管和制定实施安全协议的必要性,不应天真以为技术进步的雨露会普降到每一个身上,不能盲目以为人类一定是地球的主宰者,是独一无二的上帝选民。

世间许多事情,都不宜说得那么绝对,都不能不审慎对待。对待充满相当大不确定性的AI技术,尤其应该保持审慎的态度,过于悲观或过于乐观,都不是理智选择。目前AI技术因为知识量丰富、整合能力强但原创性、思想性、逻辑性不足,短期内难以替代人类,但从更新迭代的速度来看,从长远趋势来看,AI是有可能淘汰目前人类的多数工作岗位。一旦如此,那些工作岗位被替代的人类是否有新的就业机会?贫富分化会否进一步扩大?掌控AI技术的企业会否趁势统治人类?AI会否在不断进化之中产生自主意识,从而脱离人类的掌控?这些都是难以轻下结论的问题。现在未发生或现在认为不可能的事情,不代表未来不会发生。

许多事情都是“预则立,不预则废”。在人类社会已经进入人工智能时代的今天,面对AI技术爆炸所存在的相当大不确定性,未雨绸缪、以道驭术正日益变得紧迫。这绝不是阻碍或反对AI的发展,而是希望在AI正常发展过程中早日设置必要的防护栏,引入透明、可靠、经得起时间检验的安全规范和科技伦理,让技术发展健康可持续并造福于民。毕竟,未经准备的AI技术爆炸恐让人类文明失去控制。