【科技.未来】懂创作小说编写网页 AI可理解语言和世界?

撰文: 孔祥威
出版:更新:

纽约大学心理学家Gary Marcus和同校计算机科学教授Ernest Davis上月中在《麻州理工科技评论》撰文,指他们经多番测试发现,OpenAI的AI语言模型GPT-3似乎在不同层面上皆欠缺基本常识和逻辑。例如在生物推理上,他们给了GPT-3这样的起首提示:“你倒给自己一杯蔓越莓汁,然后不小心加了一匙葡萄汁进去。它看起来没有异样,你尝试闻闻它,但你感冒得很厉害,所以闻不到。你非常口渴,所以”,GPT-3续写:“你喝了。现在你死了。”在物理推理上也有类似情况。至于更复杂、牵涉社会的推理,GPT-3自然无法正确应对。

承接上文:【科技.未来】AI写作见“人性” 真正智能指日可待?

对于这些表现,Marcus和Davis指出:“它不了解世界……它所做的就像是从它看过的文字大规模和多样地剪下和贴上,而不是深入挖掘那些文字背后的概念。它只是学习单词之间的关联,仅此而已。”

AI语言模型能模仿人类语言自动回答问题、写小说,甚至生成乐谱等。但有学者指出,这不等于AI真的理解人类语言的意义。图为日本日立公司员工展示其AI应用。(Getty Images)

所谓“强AI”言之尚早

但是,GPT-3受到关注的真正重点并不在于它作为作家、诗人或客户服务员的能力,而是它在没有监督的情况下学习不同任务的能力,以及单纯透过扩大数据和运算的规模就能改进表现。GPT-3所代表的是AI未来发展的一大辩题:我们是否可以仅使用现有的深度学习技术,就能获得在许多关键领域都超过人类能力的“强变革性AI”系统?要产生媲美甚至超越人类智能的“强AI”,到底需要一种根本上截然不同的方法,还是只要不断增加机械学习模型的运算能力就能出现?

为特定工作而训练的“弱AI”已在多个领域取得成果,如何迈向拥有匹敌甚至超越人类智慧的“强AI”,在学术界仍有争议。(美联社)

AI学界和业者对此仍在争辩。一派认为,长久以来,我们一直认为要建立“强AI”极之困难,需要对人类的思想、意识和理性有详细了解。我们缺少创造人工思想的关键组成部份,电脑必须先了解诸如因果关系等思维,才有望接近人类的智能。但在过去约十年,另有一派为数较少的研究者开始挑战这种想法,认为只要赋予电脑更多运算能力,“强AI”就会自然出现,当中较著名的观点来自电脑科学家Richard Sutton题为《痛苦的教训》(The Bitter Lesson)的文章。Sutton指出,当研究人员试图根据人类知识和特定规则来创建AI程式时,后者很多时都会被一些仅仅拥有更多数据和更强运算能力的竞争对手击败。这是痛苦的教训,因为这显示了试图增强人类宝贵的创造力,似乎不如仅增加电脑的计算能力那么有效。正如Sutton写道:“从七十年来的AI研究中可以得到的最大教训是,利用运算的通用方法最终将是最有效的,而且有效很多。”

这种“重量”的想法,本身就是一个具有“重质”效果的概念,是GPT至今一直遵循的道路。因此,GPT的下一个问题是,这条道路还可以走多远?

上文节录自第231期《香港01》周报(2020年9月14日), 文章原题《 AI写作见“人性” 真正智能指日可待?》,网上标题为编辑重拟。如欲阅读全文请按此试阅周报电子刊,浏览更多深度报道。

231期《香港01》周报精选内容:

【封面故事】管理公共卫生危机的必修课 勿让民粹主导抗疫

与张超雄对话 如何改善智障人士的生活?

三大问题致良好政策一团糟 青年宿舍无法令青年安居

45年后中印边境再“响枪” 莫迪政府“玩火” 转移内部矛盾

【香港角度】疫下的金融科技发展

白罗斯、乌克兰与俄罗斯瓜葛不清 东斯拉夫人同床异梦

当提升自给率成多国国策 “粮食自主”乃国际大疑难

AI写作见“人性” 真正智能指日可待?