【科技.未来】AI写作见“人性” 真正智能指日可待?
GPT-3是OpenAI在7月中发布的最新一代、最大的AI语言模型。它经由多达45TB的文字数据来训练,主要是来自互联网的内容,例如巨型网络数据库Common Crawl、英文维基百科(Wikipedia)、人气论坛Reddit、电子书、各种网页等。因此,它的训练数据不仅包括新闻报道、社交论坛帖文、食谱、诗歌等,还包括编程手册、同人小说、宗教预言等几乎可以想像到的任何文体。
“创意”与人类无异
GPT-3是非监督式学习者,会从未经标记的数据中自行“学习”语言。某程度上,它其实是在统计—找出某个字句之后接上某个字句的机率,例如“红”之后有多大可能接上“玫瑰”。OpenAI希望以GPT-3来完成一个简单任务:经“小样本学习”(few-shot learning)后,即给予一定的初始提示字句下,猜测接下来最有可能出现的文字。
最近,Twitter上就有不少测试者分享测试成果。例如著名风投基金“创始人基金”(Founders Fund)的投资者Delian Asparouhov以一份有关医疗保健投资的备忘录为开头,由GPT-3自行撰写有关监管障碍的讨论;有些测试者则成功用GPT-3转换文字风格,例如把充满粗言秽语的评论转换成有礼貌的意见,或把大段文字简化为摘要;更有测试者把GPT-3用作资讯搜寻引擎,例如伦敦帝国学院医科生Qasim Munye用它解答健康问题。
另有一些测试者发挥创意,不但把GPT-3用作聊天机械人,甚至用来模仿古人以征询意见,例如有测试者生成了一段人工智能先驱图灵(Alan Turing)和数学家Claude Shannon之间的虚拟对话,中途更被哈利波特“乱入”。也有一些测试者进行文学创作,独立研究者Gwern Branwen生成了小说、诗词等多篇作品。GPT-3甚至可以生成各种类型的文本,包括结他谱或电脑程式码。
不少测试者都对GPT-3的能力大为赞赏。Asparouhov觉得它就像“提供了10,000个愿意与你交谈的博士”;Munye认为:“从创意而言,很难与人类区别。”事实上,美国加州大学柏克莱分校计算机科学系学生Liam Porr上月中成功以GPT-3建立一个完全虚假的网志骗过网民,其中一篇文章更于上载数小时后获疯传,并登上黑客新闻网站Hacker News热搜榜首名,甚至有人“订阅”。留言的数十人中,只有三、四人怀疑它可能是由演算法生成的,这些评论很快遭到其他用户“负评”。
言论承袭人类偏见
问题是,GPT-3的教材中包含了人类的不当言论,因此,它可能会生成出充满性别歧视或种族主义的偏见乃至仇恨言论。Facebook AI主管Jerome Pesenti便警告,其中一名测试者Sushant Kumar以GPT-3制成的Twitter帖文生成器可能会产生偏见内容。Pesenti以“犹太人”、“黑人”、“女人”、“大屠杀”作为提示来测试,并得出充满刻板印象或偏激言论,例如犹太人“热爱金钱”;女人“总是搞不清方向”;“黑对白就像是下对上”;“大屠杀在环保上很有意义”等。事实上,这些问题早见于GPT-2。OpenAI政策总监Jack Clark警告:“很明显,如果这项技术成熟,也许只是一、两年后,它可能会被用来创作虚假资讯或宣传的手段。”
上文节录自第231期《香港01》周报(2020年9月14日), 文章原题《 AI写作见“人性” 真正智能指日可待?》,网上标题为编辑重拟。如欲阅读全文请按此试阅周报电子刊,浏览更多深度报道。