【AI大跃进】fb教主吁毋惧AI “无监督学习”恐存隐忧

撰文: 李骏生
出版:更新:

人工智能(AI)电脑击败顶级围棋好手,AI会否渐渐不受控制,最终危害人类的存活?英国著名物理学家霍金(Stephen Hawking)最近在英国广播公司一个年度讲座上,提到人工智能(artificial intelligence,AI)的发展若不受控制,或令人类灭绝。社交网站Facebook创办人朱克伯格昨日(27日)则在网志发表文章,呼吁大众毋须害怕AI。朱克伯格称AI下一个里程碑将会是“无监督学习”,但同时指出科研人员未能掌握人类“无监督学习”的机制,此番话或令外界更忧虑。

朱克伯克发表网志,呼吁毋须害怕AI。图为他去年3月在美国三潘巿的开发者研讨会上发言。(资料图片)

霍金(Stephen Hawking)上周二(19日)在讲座上回答提问,称AI的能力愈来愈强,导致人类灭亡的风险很高。不过,自称“乐观”的他仍相信将会有方法制止以上灾难,他解释:“我们不会停止科技发展,也不会使其倒退。我们要认清危险,好好控制新科技。我相信我们能够做得到。”

 

朱克伯格(Mark Zuckerberg)曾称Facebook将研发独立的AI系统,希望推动整个范畴的发展。他昨日刊登的文章指出,AI下一个“大跃进”是无监督学习(unsupervised learning),届时电脑将毋须经人指示,以自己的方法学习新技能——这正是人类学习的方式。

朱克伯格呼吁大众应期待AI将为世界带来更多惊人的好处,但他同时也坦言未能掌握人类无监督学习的机制。这种说法,难免令一些人感到忧心。

 

英国牛津大学的哲学系学者博斯特罗姆(Nick Bostrom)已将高层次AI、大型小行星坠落、全面核战等列为人类“存亡威胁”(existential risks)。他指出,人类的基本学习机制是构成现代社会秩序的基础。如果科研团队发展AI无监督学习时,未能准确地复制人类的学习机制,AI的“思想”模式将更难预测,后果难料。

 

(CNN/BBC)

延伸阅读:

Google围棋程式 5:0大炒欧洲冠军

私人企业垄断科研 透明度低衍生问题难料