专访哈佛“正义教授”Michael Sandel:让AI管理的社会是不公正的
2025年3月,哈佛大学政治哲学教授麦可‧桑德尔(Michael Sandel)受邀来到清华、北大演讲,3天4场讲座,引发了热烈讨论。
编辑:邓涵竹 责编:陈子文(一条)
桑德尔曾因2009年的《公正》(Justice,另译《正义》)公开课风靡全球,也引领了中国公共哲学讨论的风潮。当年他来访中国时,有媒体形容其受欢迎程度“和荷里活明星、NBA球员一样”。
作为一名世俗意义上的“精英”,他却直言当今社会存在著一种“精英的暴政”:
傲慢的“成功人士”崇尚优绩主义,认为处在底层的人不够努力,加剧了结构性压迫和社会分化。
一条在北京见到了桑德尔。今年72岁的他仍心系著时代洪流中的个体,跟我们谈起了对AI浪潮的种种担忧。桑德尔提醒我们:
科技并非在自然发展。以美国为例,AI目前的开发方向,是在为矽谷投资人的利益服务。如果不让全民共同讨论、加之引导,任由AI取代人类做决策,那我们是在愚弄自己。
用“AI版电车难题”引导大家思考 指出人工智能作道德判断时的最大问题(点图放大看有关部分精华节录):
风靡全球的明星哲学家
在北大清华的几场讲座、对谈中连续转了3天后,3月12号一大早,桑德尔准时出现在了酒店的会议厅。身穿一袭笔挺的西装,头发虽已花白,却仍目光灼灼——当他步伐矫健地走进房间,很难相信这位精神矍铄的学者今年已经72岁。他微笑著跟每个人握手问好,自我介绍时,也只是谦逊的短短一句“我教政治哲学”。
麦可·桑德尔是当今影响力最大的公共哲学家之一。1980年,他成为哈佛大学通识课《公正》的主讲人。面对台下一千多名学生,桑德尔采用苏格拉底式的教学法,开课就抛出了经典的“电车难题”:
假设你是一名电车司机,正以每小时60英里的速度向前行驶,突然发现前方有5位工人正在作业,而手刹这时失灵了。同时,在另一条轨道的尽头只有1位工人,而你还可以控制你的方向盘转向——你会如何选择?
学生各抒己见,而桑德尔循循善诱,不断丰富问题情境,引得讨论愈发激烈。这门课此后连续多年成为校内注册人数最多的课程,创下哈佛大学的历史纪录。2009年,哈佛大学将这门课做成互联网公开课,一经播出便风靡全球,被认为“开创了中国公共哲学讨论的先河”,甚至推动了国内互联网公开课的热潮。那段时间,他的演讲入场券一度被黄牛炒到500美元一张,甚至同事在中国旅行时,打车遇到的司机都说自己和家人都在看桑德尔的影片。
时隔十几年,桑德尔此次受邀来中国的行程仍被安排得满满当当,仅北大讲座的直播就吸引了1000名学生线下参与,18.6万观众在线观看。而在见我们之前,他已经一早就起来先完成了另一场访谈。与我们对谈时,桑德尔展露出一种温和又不失锋芒的魅力:他喜欢以讲故事的方式聊哲学,叙述时娓娓道来,让人如沐春风;然而,他的批判性思维又极为敏锐,稍不留神,他就会“反客为主” ,把人问住,或带到他的谈话节奏中去。
桑德尔的强大思辨力和对时政的关注,从少年时期就已显现。高中时,他担任学校的辩论队辩手。当时桑德尔所在地的州长是列根,桑德尔十分不认同他的政治立场。于是,当桑德尔得知列根就住在自己附近,这个时年18岁的高中生,带著一盒糖和一封邀请函,只身来到了列根的住宅门前,邀请他到自己的学校进行一场公开辩论。几天后,这位未来的美国总统出现在桑德尔所在的高中,在2300多名学生的注视下,与18岁的桑德尔展开交锋。这场辩论不如年少气盛的桑德尔想像中顺利。事实上,他能想到最棘手的问题也没能难倒列根,而他也被列根的人格魅力深深感染,并意识到了辩论对人有著多么强大的影响力。
此后,他的学术生涯一路绿灯。本科毕业后,他被“罗德奖学金”委员会选中,前往英国牛津大学攻读博士学位。罗德奖学金有著“全球青年诺贝尔奖”之称,获奖者中产生了40多位全球领导人和十几位诺贝尔奖得主。桑德尔是一位毋庸置疑的“天之骄子”:家境优越,自己也勤勉好学,成就超群。然而,作为一个世俗意义上的“既得利益者”,他一直对社会保有锐利的批判性视角,关心普罗大众的福祉,也丝毫不惧批判权威和与自己同阶层的人。
在著作《精英的傲慢》(The Tyranny of Merit)中,桑德尔犀利直言,当今社会“赢家通吃”的价值体系,形成了一种“精英的暴政”。傲慢的精英们崇尚优绩主义,认为一切成就全归功于个人奋斗,而处在底层的人“失败”只是因为不够努力。而这种病态的价值体系,持续加剧对底层人民的结构性压迫。这也是桑德尔一生都在呼吁促进公共讨论的原因之一——话语是一种权力,不能由少数精英垄断。公正、道德、伦理,都需要所有人共同讨论、判定,才能维护人类的公共利益(common good)。
也正因如此,当桑德尔谈到如今发展势头最为迅猛,也是所有人最关心的话题——AI时,仍强调著道德伦理的界限和公共对话的重要性:
人们要知道,AI技术现在的发展方向并不是自然形成的,而是由矽谷的投资人决定的,他们想要降低劳动成本。我们需要进行公开讨论,共同引导这些强大新工具的开发目的,让他们为全人类的利益服务。如果人类让演算法主导决策,那我们就是在愚弄自己。
【延伸阅读】外国人“围殴”54万港元中国机械人狂吸8000万次观看 掀伦理激辩(点图放大浏览):
以下是与桑德尔的对话精选。
由算法主导的社会,公正吗?
Q:一条
A: 桑德尔
Q :您自己是否用过ChatGPT或DeepSeek这样的AI工具?
A:在我儿子的影响下(只有他知道如何操作),我尝试过ChatGPT 。我儿子让它总结我的哲学观点,然后把结果读给我听。说实话,那是一个不错的总结,这有点令人不安。
Q :您的学生是否会用AI完成作业?您能察觉到AI生成的痕迹吗?您对此怎么看,会如何处理?
A :我的不少学生在使用AI 。事实上,我认为AI生成的痕迹是显而易见的。有一次,我看出一份作业是AI做的,就叫来那名学生询问。她立即承认了,解释说她最近压力很大。我并不是想要阻止学生们使用AI 。如果借助了AI ,只要标注引用来源,并写明哪些内容是在AI的帮助下完成的即可。让我真正担心的是,有些学生开始完全用AI的答案来代替自己的了。
Q :在《精英的傲慢》中,您提到如今社会“赢家通吃”的价值观,会驱使精英们瞧不起那些世俗意义上“不成功”的人,而让下层阶级失去价值感和自我认同,对上层阶级产生愤恨情绪。AI的出现会如何影响这种社会分化?
A:人工智能对这种不平等的影响还有待观察。我的直觉是,人工智能将在某种程度上加剧不平等,因为,就美国而言,那些为人工智慧设定创新方向的是矽谷的创投者。他们的目标是减少劳动力,用AI 、机器自动化来取代人类员工,为公司节省金钱。如果这是创新的主要方向,那么人工智能将加剧不平等。我们必须更加慎重,并公开讨论AI的研发目的,引导它们的发展方向,使其增强人类的工作能力,而不是取代工作。
Q :有人认为AI使资讯更容易取得,打破了资讯壁垒,某种程度上为弱势群体创造机会,弥补了教育等资源上的鸿沟。在您看来,AI发展的确有可能拥有普惠的前景,还是只是技术乐观主义的幻想?
A:我认为当然有乐观发展的可能。事实上,一切都取决于我们自己,因为AI问题的本质,并非是一个技术问题,而是社会和政治问题。像DeepSeek这样的工具,如果它们真正可以自由开放访问,那么它可以是增进消费主义的工具,也可以是公共讨论和学习的工具。
所以,明确AI技术究竟该如何使用,是社会的当务之急。有了DeepSeek和ChatGPT ,我们是创造更多的教育机会,还是只要卖更多东西,或让更多人失业?这需要由全人类共同来辩论、决定这些新技术是否会服务公共利益。
美国华盛顿大学的一项研究显示,在美国被广泛应用的履历筛选AI ,85%的情况下偏向名字被认为是白人的求职者。此外,女性名字的偏好率为11% ,而男性名字高达52% 。
Q :近年来,AI正深度嵌入社会许多领域的决策过程。一个由演算法主导的社会,可能成为一个“公正”的社会吗?如果不能,我们该如何捍卫人的自主判断和公共理性?
A:完全由演算法管理的社会不会是公正的社会。我们今天作为预测工具使用的演算法,利用的是数据,而数据本身充满过去经验中的偏见。比方说,如果AI来帮助判断银行是否批准某人的房屋贷款,或在司法系统中,是否准予某人假释,是由算法基于过往数据对那个人进行预判后做出的决定。这是一种“定性”,从种族、民族和其他社会维度的“定性”去预测,那人得到贷款后会偿还的可能性,或被假释后,像他这样的人会再次犯罪,还是过上守法的生活。所以,演算法只是简单的预测工具,它寄生在过去的资料中。这就是为什么它会复制不公正的偏见。
人类则不同,我们的思想凝聚成哲学,建立在人类不断诠释的经验和思辨之上,而非简单地聚集数据,再从中导出某些预测。因此,我们需要在场,并主导决策。无论是在司法、大学招生,或是人事招募系统中,都需要人类的判断来厘清数据中的偏见,并试著做得更好。身为人类,我们肩负著做出道德判断的责任,因为这件事只有人类才能做。
Q :我们应该对AI使用设定怎样的道德边界?哪些部分AI可以介入,哪些地方必须明确限制?
A:我们应该对AI的使用施加两种限制。第一,我们不能陷入“演算法是价值中立的机器,可以绝对客观地做出决定” 的假设。我们不能将人类的道德判断“外包”给AI 。第二,我们应该认识到,科技发展的方向,并非本来如此,而是由矽谷和其他地方的创投人为了自己的利益刻意引导的。因此,我们需要进行公开讨论,引导这些强大新工具的开发目的。例如,如何让它们促进人类的工作,让工人更有生产力,享受更高的工资,而不是试图将一切自动化,用AI取代工人。科技的发展方向,应该为所有人一起深思熟虑的公共利益服务。
Q :在人们对AI的所有担忧中,您认为最关键的问题是什么?
A : 机器人会取代我们的工作吗?大数据时代是否意味著我们不再有隐私?Deepfake这样的工具和假讯息的传播会导致社会分化更加严重吗?这些都是重要的隐忧。但我认为,在这一切之上,最根本的问题是:科技是否会改变“人类”本身的意义。我们是否会开始用虚拟社区取代实质的人际交往,是否会削弱、钝化我们与他人相处时的“在场”性,人类的本真是否会被破坏……这才是最大的问题。
Q :您以“电车难题”作为《公正》课程的开场。如果请您再讲一场关于AI与哲学的公开课,您会让学生讨论一个什么样的问题?
A:我想你可以说这是人工智能时代的“电车问题”:
假设有一个婚姻预测软体,它可以在全世界所有人中,预测三个可能是你的最佳终身伴侣的人。如果你妈妈也为你列了一份名单,你会更信任这个软体产生的,还是你妈妈列出的?
Q :如今,有些人开始使用AI“复活”逝去的亲人。在您看来,这种“虚拟永生”,是填补了情感缺口,还是带来了更大的存在虚无?
A:在北京大学讨论人工智能的伦理时,我问观众,你们会想与一位逝世的所爱之人的数位化身对话吗?这并不是一个容易回答的问题。我只能说,我自己对此持怀疑态度。因为我认为这不可避免地涉及到一种欺骗。有人可能会问:“这和翻看一本旧相册,回忆起过去的时光有什么不同?” 我认为,相册会触发我们对过去的记忆,但这种关系仍然存在于过去。而与祖父母的数位化身的“对话”,是正在发生的“对话”。它导致我们将虚拟和真实的关系混为一谈。事实上,我认为它阻碍了,而不是恢复了与所爱的祖父母的关系。
比方说,一个人新交了一个男朋友或女朋友之后想到,“哇,我想知道我的祖父会怎么看,我相信他的判断”。 然后“AI祖父”会给予建议,“这个女人不适合你” 。这位“虚拟祖父”,会用AI演算法,根据真正的祖父一生中表达过的所有观点来推断、预测他对你伴侣的看法,或任何其他问题的看法。但这忽略了一点,那就是生活经验可能会让祖父改变自己的观点。身为人类,我们是自我更新的。我们学习、成长,我们会改变想法,改变的方式不可完全预测。
一些AI的拥护者会说,以如此强大的学习能力,有一天AI将能够对未来做出预测。我对此表示怀疑。认为我们的成长无法超越强大演算法的预测,是将人类的体验扁平化。事实上,不可预测性和不完美,可能正是人类的宝贵之处。AI时代促使,甚至可能迫使我们认识到人性的独特,加深我们对自身的理解。
Q :您曾从多个维度提到“意义”对人类的重要性。今天,当AI把我们日常的许多工作、事务自动化,人们是否更容易失去意义感?
A:我的确观察到一种现代性的趋势——人们对生命的目的和意义的定义正在改变。我认为,科技似乎让我们更容易走向“无意义”,是因为它为我们提供了更成熟的工具,让人能轻易满足自己那些“刚好拥有”的欲望,帮助我们得到“认为自己想要”的东西,而不是去思考,我们为什么有这些偏好、需求。
在社交平台上,演算法知道如何操纵我们的情绪——点燃我们的热情,或引发我们的愤怒。这些情绪和感受让我们的手指黏在萤幕上不断滑动。然而,这样的互动对培养人与人之间的相互理解没有任何作用,更不用说倾听了。真正的公民对话需要倾听的艺术,需要一定的耐心和注意力,而社交平台的演算法系统让我们很难做到。
在课堂上,我会鼓励学生透过辩论的方式去沟通。我请学生去弄清楚他们相信什么,彼此倾听,回应那些与他们意见相左的人所提出的论点。我已经不允许学生在教室里使用电子产品,因为如果他们只盯著萤幕,这一切都不会发生。我无法从互联网和演算法中赢得他们的注意力。
但是,说AI会破坏生命的意义,可能是对它给予了太多的信任。赋予生命意义的,不是实现欲望,而是反思欲望。因此,我们需要要进入社区,建立真实的关系,接受教育,批判性地思考我们的欲望是否出自真心。我们要重新思考什么值得在意,我们相信什么,以及为什么相信──哪些目标真正值得追求?最好的公民生活,最好的教育是怎样的?透过反思这一切,才能真正丰富人类的生活。
本文内容反映原文作者的意见,并不代表《香港01》的立场。
【相关图辑】北京机器人大会被踢爆“用美女扮机械人” 惨被上下其手还不能动(点图放大浏览):
【本文获“一条”授权刊出,欢迎关注:https://www.facebook.com/yitiaotv】