中国人民大学伦理学与道德建设研究中心主任
曹刚教授
//////////////////////
ChatGPT的出现意味着什么?意味着自然语言处理技术有了重大突破?还是意味着更多的人下岗失业?意味着一次新的工业革命?还是意味着打开了潘多拉之盒,人类从此走向了强人工智能的不归路?技术的、经济的问题容易回答的,涉及个人幸福、社会公正和人类命运的问题不容易回答,因为要回答这些问题,涉及到善与恶的道德判断。
01
为什么人类中心主义的立场不可动摇?
传统社会的道德调整人与人的关系,解决的是人类范围内的事,所以不存在人类中心主义的问题。现代社会面临生态危机,而导致生态危机的思想根源据说是人类中心主义,于是出现了弱人类中心主义和非人类中心主义,主张自然也是道德关怀的对象,人与自然的关系也是一种伦理关系,由此,人类中心主义的立场发生了动摇。在人与人、人与自然的关系之外,还有人与物的关系。人们处理人与物的关系,从来都以自己为中心,把物仅仅看做是被人利用的工具。问题来了,人工智能出现了,机器人似人非人,在人与人工智能物的关系上,还要坚持人类中心主义吗?
我的回答是肯定的,理由有三:
第一,人工智能是人造物。即便人工智能在局部领域和特定方式上反客为主,但在存在论的意义上,人的本体地位是不可动摇的。
第二,ChatGPT的过人之处在于实现了对人类知识的存储,具备了很多人才拥有的能力。但究其实质,它依然是人类已有知识的搬运工,进行的不过是“拼凑性”的知识创造。人的认知主体地位不可动摇。
第三,人工智能是个工具。人造物是为人类服务的。人是万物的尺度,人是惟一具有内在价值的存在物,其他存在物包括ChatGPT都只具有工具价值,其价值的有无大小取决于满足人类需要的程度。这是价值论意义上的人类中心主义。
2022年,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》中,第一条伦理原则就是“增进人类福祉”。事实上,增进人类福祉作为第一原则,也是国际社会的共识。由此可见人类中心主义的国家立场与国际立场。
02
对“算法”有向善的要求吗?
人工智能的大脑是算法,对算法应当有向善的要求。
第一,算法是人性的放大器。人性是灰色的,有善有恶。算法可以放大善,也可以放大恶,譬如,平台为了流量,利用人性弱点,推送涉暴涉黄的内容,就会使暴力的更加暴力,使色情的更加色情。这样的推荐算法自然放大了人性的恶。总之,“人心惟危,道心惟微”,要使危者安,微者著,算法必须向善。
第二,算法是社会的“座架”。算法嵌入社会结构,内在于社会运作,影响社会生活的不同层次和方方面面,犹如城市里的水与电,成了一个社会的准公用基础设施。想象ChatGPT广泛应用的情景,就很好理解了。因此,算法的公共性决定了其涉及不特定多数人的利益,算法向善就是要求公共利益优先。
第三,算法是达成不同目的的工具和步骤,人要利用这个工具行善而非作恶。
03
可以借助ChatGPT来进行道德决策吗?
当提问ChatGPT有关道德问题时,它的回答是,“我是一个AI语言模型,不对道德问题做判断”,确实,聪明如ChatGPT,也不能自主地做出道德判断和决策。
第一,智能社会里的很多生活和社会决策是可以借助人工智能的。譬如我们接受算法推荐的内容和产品时,就是在借助算法作出判断与决策。但这不意味着人们应该把道德判断与决策都交给算法。
第二,有些常规的道德决策是可以借助算法,但算法决策的背后仍然是人的决策。人们可以将某些道德共识、道德原则和道德案例程序化为道德代码,嵌入智能系统,以应付某些确定情境中的道德选择问题。而对于那些道德难题,传统的伦理学知识解释不了,传统的道德规范体系也无法有效解决,再聪明的人工智能也因为“肚里没货”而一筹莫展。
第三,道德是一种实践理性,道德判断和决策是需要提供理由的,但算法的决策逻辑缺乏透明性和可解释性,算法的黑箱性质决定了其道德判断只能让人莫名所以,难以作为道德选择的依据。
04
偏见是算法的“胎记”吗?
ChatGPT号称是客观中立的。果真如此吗?当然不是,偏见是算法洗不掉的“胎记”。
第一,大数据中“偏见”的存在是个事实。算法所分析的大量数据是人们各种言行的信息汇合。言语所承载的,行为所趋向的,都留有不同地区、不同文化、不同阶层、不同制度下的价值观痕迹。人工智能依据这些有偏见的数据进行学习训练,其结果自然避免不了偏见。譬如,美国出生的ChatGPT,就留有西方文化的胎记,这是由于它被喂食了大量西方受众留下的信息,而这些信息包含了特定的价值观密码。部分人群的“正见”,在另部分人群看来就是“偏见”。由此,当用户要求ChatGPT生成任何内容时,偏见就如胎记一般,自然生成,隐含其中。
第二,算法的价值观还来源于目标函数。比如,在短视频的推荐算法里,“让用户停留更长时间”就是目标函数中最关键的变量,于是,算法推荐就会投用户之所好,沉迷由此而生。算法的目标函数是由人确定的,而人是有偏好的,设计者的偏好是算法偏见产生的另一根源。
05
“北京折叠”是关于智能社会
的悲观预言吗?
郝景芳的小说《北京折叠》荣获了雨果奖“最佳中短篇小说奖”。小说是对智能社会的悲观预言。
第一,《北京折叠》将智能社会的时空一分为三:第一空间处在大地的一面,第二空间与第三空间同处大地的另一面。当第三空间与第二空间折叠进大地并翻转,出现的便是第一空间,这就是所谓北京折叠。三个空间分别住着社会的顶层、中层和底层。可见,《北京折叠》预言智能社会存在结构性的不平等。更严重的是,ChatGPT的出现,进一步强化了这种不平等,因为人工智能可以替代大量的智力劳动者,这样,中层的很多白领也将移居第三空间,这样,两极分化的社会就形成了。
第二,社会的极端分化表现为原始资源分配的不平等。时间和空间是人存在和发展的原始资源,想想996,想想学区房,就明白了。原始资源上的不平等是根本性的和综合性的。在《北京折叠》里,第一、二、三空间分别生活了500万人,2500万人、5000万人,这是空间资源分配的不平等,三个空间居民清醒时间与睡眠时间比率分别为 24 /24、16 /32 和8 /40,这是时间资源分配的不平等。如果ChatGPT让第二空间的大多数白领也移居第三空间的话,时间和空间资源的不平等就更加严重了。
第三, 智能社会的分化具有不可逆性。可以设想,第一空间的精英群体有足够的动机和条件,通过基因增强大大改善人的健康状况,延长人的寿命,甚至通过“思维上传”实现“精神不死”,如此等等。这样,第一空间的精英群体就会把后天的社会优势转化为先天的自然优势,代代相传,社会的不平等就固化了、永久化了。
可见,《北京折叠》是对智能社会的悲观预言。如果这个预言成真,那么,社会的连带关系将会断裂,以互惠为基石的规范体系也将会失效。
要改变这一切,根本上不在于改变头脑里的想象,也不在于改变技术上的路线,而在于找到使这列火车失控的内在动力是什么。是资本?是权力?是技术的意识形态?或者是它们的结合?
06
“无用阶级”是个危言耸听的说法吗?
赫拉利在 《未来简史》中提出了“无用阶级”论,为什么这个危言耸听的称谓得到了社会共鸣?
第一,“无用阶级”的称谓呼应了人们对人工替代所造成的失业焦虑。人工智能不但取代了体力劳动,也取代了部分智力劳动,据说包括医生、律师等智力劳动者也面临失业风险。“无用阶级”的说法正好与被人工智能取代的悲观想象相呼应,
第二,何谓“无用”?(1)没有政治、经济的价值了。赫拉利特别指出:“我使用了useless这个单词,以凸显我们讨论的是从经济和政治体系角度看起来的无用,而不是从道德角度的无用”。(2)人的技能退化了。人工越智能,人就越愚蠢。傻瓜机用久了,都不会调焦距了。(3)无意义感。失业的人,更容易失去人生的意义感。
第三,无用之人自古有之,“无用阶级”却是特定时代的产物,是技术、资本和权力合谋的产物,从根上说,“无用阶级”是不为资本价值增殖所需要的“多余”的人。
07
道德能力是智能社会的核心能力吗?
人工智能真比人强,瞧瞧ChatGPT就知道了。但唯独缺乏道德能力,由此,道德能力是智能社会不可替代的核心能力。
第一,人的能力包含了体力、智力和道德力。体力是存在于人的肉体中的自然力量,是人的存在的自然前提和基础。智力是做事的能力,是指认识事物方面的各种能力,表现为正确判断与分析、透彻地理解与掌握、适当地推理与应对。道德能力是按照人的全面发展的要求去支配自身发展的道德能力,是自我约束、社会合群和超越有限自我的能力。
第二,道德能力在智能社会是最有价值的东西。杰奥夫·科尔文在《人类被低估》一书中说: “过去 300 年在推动经济发展上被认为重要的那些技能,在今天已经不再是最有价值的了。新的高价值技能是我们最深层的本性的一部分,那些将我们定义为人类的能力: 感知别人的想法和感受; 在群体中有生产性地工作;建立关系; 共同解决问题; 以用逻辑无法达到的力量来表达我们自身。”这里说的其实就是道德能力。
第三,道德能力的具体内涵包括三个方面,(1)通过自我反思与评价,摆脱任性,有理由地行动的能力。(2)正义感和仁爱心。可以内化社会合作的规则,得其应得,同时具备心中有他人的牺牲精神。(3)把握终极目的,实现自我超越的能力。
08
为什么“去中心化”走向了“中心化”?
从互联网到ChatGPT的发展都贯穿着“去中心化”的理念,一个关于开放、自由和平等的社会愿景。但现实的情况是,权力的垄断导致了再中心化。
第一,算法权力的垄断。这种权力因算法技术而产生,掌握高度复杂算法技术的科技精英与普通民众之间产生了巨大的算法技术鸿沟,差距产生势能,科技精英由此可以垄断算法权力。
第二,算法权力的背后是资本的权力。ChatGPT/AIGC带来的最终结果,是互联网巨头以及华尔街资本的进一步中心化。在西方世界,资本作为算法设计和研发过程的主导者,在推动技术发展的同时,也不断强化其自身对国家与社会的影响力和控制力。
第三,政治权力的垄断。人工智能赋能政治治理,政府通过将算法嵌入政治权力运行的结构中,可以实现对全社会的全方位跟踪和掌控。
一旦三种权力结盟,权力的制约就极其困难,“去中心化”向“再中心化”的转变就难以逆转。
09
从民主到民粹是如何发生的?
在智能社会里,数字传播赋能民主,使直接民主成为可能,不幸的是,数字传播也催生了民粹。
第一,具有即时性、开放性特征的数字传播催生了西方国家的策略型民粹主义。无论是“英国脱欧”还是特朗普当选,背后都有数字传播的加持。政客们利用数字传播,在其宣传活动中加入了民粹主义元素,并通过精准营销,成功引导与改变了选民的立场。
第二,大数据算法以“看透”人心的方式把民主权力收归为算法权力。剑桥分析公司曾经宣称:“我们拥有超过2.3亿美国选民的5000个数据点,我们可以建立您的目标受众,然后使用这些重要信息来吸引、说服和激励他们采取行动。”可见,西方的民主正蜕变为一种算法民粹主义。
第三,立场比真相更重要。《牛津词典》把“后真相”选为2016 年度词汇,后真相的实质就是立场比真相更重要。民粹主义大行其道的秘诀在于,诉诸情感和信念比诉诸真相更能影响公共舆论,这使得民主选举的逻辑发生了改变,选民投票的逻辑不再是:依据事实→做出判断→确立立场,反而是立场在先,事实在后。
10
智能社会最需要什么样的教育?
未来教育需要培养孩子“Al无我有”的能力,要达到这个目标,现有的教育体系必须改革,并突出三种教育:
第一,劳动教育。虽然在智能社会,人工智能代替了大量的脑力和体力劳动,但劳动教育仍然是必须的,只不过这里的劳动教育不只是劳动技能的教育,更是劳动人格的教育。通过劳动教育,让人们在劳动中才体会到主体性,体会到身体控制的能力,体会到克制欲望的能力,体会到知行合一的能力。一句话,让人们在劳动中体会到这种“手脑相长”的人格价值。
第二, 审美教育。审美教育是一种个性教育。审美教育能给人一个美好自足的精神世界。审美教育是使人有趣。无趣的人和无趣的生活都是因为有了太多的利害得失的考虑,从而遮蔽了本真的生命,而审美能够摆脱各种实用功利的羁绊,显露出内在生命的生机和趣味。同时,审美教育使人具有想象力,一种从在场的现实事物超越到不在场的的事物的能力,这种想象能力如此可贵,恰在于给了我们生活的无限可能性。
第三,爱的教育。李开复博士在纽约哥伦比亚大学工程学院的毕业典礼演讲中说:埃隆·马斯克和史蒂芬·霍金已经给出了他们的观点,他们认为机器将全面取代人类,而人类能仅存的选择:要么控制AI,要么成为AI。这段直面死亡的经历,让我想对人工智能的未来提出另一版结局。毫无疑问,人工智能凭借精准的决策和产出,在很多分析型工作上已经或必将超过人类。但人类并不是因为会做这些工作而成为人类,我们之所以为人类,是因为我们拥有爱的能力。智能社会最可怕的不是性无能,而是爱无能。弗洛姆的名著《爱的艺术》就主张要破除一种错误的认识,认为爱是一件很容易的事情,爱的教育目的就是培养爱的能力。无疑,爱的教育是人工智能时代最重要的教育。
全文转载自“中国伦理在线”微信公众号