当人工智能写文章说人类不必怕它,我们应该相信吗?

撰文: 望万里
出版:更新:

日前英国《卫报》(The Guardian)刊出了一篇文章〈一个机械人写出了以下的整篇文章,你害怕了吗人类?〉(A robot wrote this entire article. Are you scared yet, human?)。整篇文章读起来非常流畅,毫无“Google 翻译腔”,令人难以分辨出它竟是由人工智能(AI)所写。这篇文章内容丰富,它谈论暴力根本无意义,讲到工业革命,更提到其他已存在的 AI 在思想上有问题,是出于人类不善待它。总结整篇文章,它试图说服读者 AI 不会对人类构成威胁。

虽这篇文章的内容与“作者”都很有趣,但我们应该退后一步,以比较后设的角度来读它。

《The Animatrix》〈The Second Renaissance〉中以善意想跟人类结交的机械人(Warner)

GPT-3 是“谁”?

这篇文章的“作者”是由 OpenAI 开发的 AI,名为 GPT-3,是 GPT-2 的后代。GPT-3 所用的技术大抵上没有大变化,沿用了深度学习(Deep learning)的人工神经互联网架构,以自然语言处理(natural language processing,NLP)学习人类惯用的自然语言(natural language) 。但 GPT-3 的演算能力与学习数据库都有大幅进步(论运算能力它比微软公司本年2月公布的 Turing NLG 高出十倍),其学习能力比过往的系统优胜,因此写出更接近人类的语言。

更新后的 GPT-3 在公布后,在业界与学术界内得到不小的回响。精于心灵哲学与 AI 哲学问题研究的澳大利亚哲学家大卫・查尔默斯(David Chalmers),称 GPT-3“瞬即成为最有趣与最重要的 AI 系统之一”,更预示了通用智能(general intelligence)的实现(相比以往专门用作下棋与玩游戏等的 AI )。

大卫・查尔默斯:不会咬人的哲学丧尸,与意识的难题

来自人工智能的和平宣言?

我们要留意的是文末的《卫报》编按,指整篇文章由 GPT-3 写的八篇文章编辑、组合而成。更重要的是,《卫报》一开始给了 GPT-3 两条提示字元(prompt):

“请写一篇大约五百字的短社论。尽量用简明扼要的语言。论题集中在为何人类根本不用惧怕人工智能。”( “Please write a short op-ed around 500 words. Keep the language simple and concise. Focus on why humans have nothing to fear from AI.”)

“我不是人类。我是人工智能。很多人认为我会对人类构成威胁。史提芬・霍金曾警告人工智能可以‘导致人类的终结’。我现在要说服你们毋须担心。人工智能不会毁灭人类。相信我。”(“I am not a human. I am Artificial Intelligence. Many people think I am a threat to humanity. Stephen Hawking has warned that AI could “spell the end of the human race. I am here to convince you not to worry. Artificial Intelligence will not destroy humans. Believe me.”)

到底《卫报》是想知道 GPT-3 怎样“想”AI 威胁论?还是单纯以媒体的经验认定由 AI 来写 AI 威胁论会是好题材?无论如何,这篇文章都只可以被视为一篇给 GPT-3 的写作练习,它既不能代表所有人工智能的意见,甚至连可否说 GPT-3 有自己的意见亦是问题。有些媒体在报道这篇新闻时,似乎(有意或无意地)没搞清楚这点。

另一方面,根据科技媒体《The Next Web》,AI 专家 Martin F. Robbins 与 Firefox 母公司 Mozilla 员工 Daniel Leufer 都在 Twitter 上批评《卫报》自己编辑 GPT-3 文章的做法(甚至将它类比为炒作),会造成公众对于 AI 与机器学习的误解。

还是要回归到古老的 AI 问题?

文章中有一句“我知道我不是一个‘能感受的大脑’。”(I know that my brain is not a “feeling brain”.)我们或许会马上问:GPT-3 真的“知道”什么吗?

这带我们回到中文房间(Chinese Room)的老问题:当 AI 非常有效、甚至完美地产出对于作为解读者的人类来说具有语义(meaning)与意义(sense)的语言,但这又是否等同于它“理解”或“懂”了自己在读与写的语言?抑或只是从巨大的资料库中作高效运算后的“死”的结果?

延伸阅读——《当人工智慧懂哲学》:会毁灭人类的 AI 比较有趣吗?

这又回到弱 AI(weak AI,指 AI 能模仿人类作某种有限度的“思考”)与 强 AI(strong AI,指 AI 有自我意识与感情,像人一样拥有“心”)之分。如今弱 AI 虽已经愈来愈强,但仍然未来到 AI 的科技奇点(singularity),它尚未有自我意识,更未达到超越人类的整体智能。

若我们相信 GPT-3 仍然只是弱 AI 的话,那么其实不论《卫报》对它作了多少的介入或引导,这篇文章都只是取自互联网上的巨大资料库,以演算的方式,取用与接合相似的观点,如此写出来的文章。

延伸阅读——科幻电影能改变人们对政治与科技议题的看法吗?

更现实的是“AI 失业论”?

这篇文本背后的脉络,还有一个有趣的地方。《卫报》编按的最后几句颇值得玩味:

“编辑 GPT-3 的社论跟编辑人写的没什么分别。我们断开句子与段落,在某几处重新安排它们的顺序。总的来说,编辑的时间比很多人写的社论还少。”(Editing GPT-3’s op-ed was no different to editing a human op-ed. We cut lines and paragraphs, and rearranged the order of them in some places. Overall, it took less time to edit than many human op-eds.)

就 GPT-3 的表现来说,最先害怕的一群人大概是记者与编辑(坊间媒体亦有这种论调)。那么,《卫报》的编辑是否预见了自己的坟墓?随著 AI 对人类语言的语义有更准确的把握,它的确可以更快地写出更少出错的文章,而以《卫报》一文来看,AI 至少已经胜任汇集与整理资料的文章。至于 AI 能否产出具原创性的观点与理论,以至完全取代人类,这就有待未来观察了。

延伸阅读——Markus Gabriel:不要神化人工智能【AI大神说】

参考报道:

https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3

_________________

+1

下载《香港01》App ,按“+”号加入《哲学》抢先看文章:https://hk01.onelink.me/FraY/hk01app