ChatGPT来袭:人工智能的逻辑思考与教育革命
文章主题:关键词:GPT, 人工智能, 知识论, 文化
跳出魔盒的精灵:ChatGPT的诞生与人类面临的两难困境
许纪霖|华东师范大学中国现代思想文化研究所研究员、历史系教授
本文将刊载于《探索与争鸣》2023年第3期
具体内容以正刊为准
非经注明,文中图片均来自网络
许纪霖教授
🌟2023年元宇宙曙光,ChatGPT引领AI狂潮!🔥全球热议中,我们见证科技与智慧碰撞——GPT掀起AI风暴,引发深度探讨:思维模式会被重塑吗?未来新人类的定义何在?AI逻辑力是否超越?它会统治人类吗?🤔情感意志,AI应否拥有?人工智能的伦理边界在哪里?🚀知识论、文化与宗教,我将从这些维度解析这场科技革命的哲学意义。🌟让我们一起探索,AI带来的究竟是福音还是挑战?🌍
一流的逻辑、二流的内容、三流的文字
🌟【深度探索】揭秘GPT背后实力:🔥逻辑满分, conteúdo?略逊一筹,文案?还需提升🔥自从GPT横空出世,我已不止一次沉醉于它的逻辑魔力中。初始接触,我不得不承认,这款AI语言模型在逻辑推理上的确展现出超乎想象的精准与连贯性,犹如一台精密的机械,运转流畅无阻。`(GPT的逻辑能力就如同一把锐利的剑,直指问题的核心)`然而,当我们谈论内容丰富度时,GPT的表现就显得有些捉摸不透了。虽然信息处理能力强,但在生成独特且深入的内容上,它似乎还略显稚嫩,需要在创新与深度上进一步打磨。`(对于内容,GPT就像是一个快速学习者,亟待知识的滋养)`至于文字表达,尽管GPT的技术日新月异,但相较于人性化的细腻和情感共鸣,它显然还有提升的空间。毕竟,优秀的写作不仅仅是技术堆砌,更是灵魂的触动与情感的传递。`(文字功底,GPT还需在人性化和情感维度上加强)` 总的来说,GPT以其强大的逻辑基础,正逐步成为行业内的佼佼者,但内容和文字的全面优化仍需时间与努力。让我们期待它未来的迭代升级,为我们的创作带来更多可能。`(期待GPT的持续进步,共创未来)`—번역결과:🌟【심층 탐구】GPT의 힘을 파헤치기:🔥 논리 완벽, conteúdo? 약간 미미, 글쓰기? 더 개선 필요🔥GPT가 등장한 이후, 나는 여러 번 그의 몰입적인 사용 경험을 통해 그를 평가했습니다. 초기적인 체험으로는, GPT는 뛰어난 논리력과 일관성으로 인해 놀라운 탁월함을 보여주었습니다. 마치 고급스러운 기계처럼 원활하게 작동합니다. `(GPT의 논리는 칼날처럼 문제의 본질에 다가갑니다.)`그러나 내용의 다양성과 깊이면 GPT는 약간 불안한 면을 보여주었습니다. 정보를 처리하는 능력은 뛰어나지만, 독특하고 깊은 콘텐츠 생성에는 아직 성숙하지 않은 모습이 드러났습니다. 혁신과 깊이에 더 힘입어야 합니다. `(내용 측면에서 GPT는 지식의 향상이 필요합니다.)`그리고 글쓰기, 그 기술의 발전 속에서도 인간적인 감성과 감동을 전달하는 능력은 여전히 GPT에게 부족한 부분입니다. 진정한 좋은 쓰기는 기술보다는 마음과 감정의 힘이 필요합니다. `(글쓰기 능력, GPT는 더불어 감성적 측면을 개선해야 합니다.)`결론적으로, GPT는 강력한 논리력을 바탕으로 뛰어난 위치에 오르고 있지만, 콘텐츠와 글쓰기에 대한 완전한 향상은 시간과 노력이 필요합니다. 그들의 미래의 업데이트를 기대하며, 더 많은 가능성을 만들어 보세요. `(GPT의 진화를 기다리며, 함께 미래를 열어보겠습니다.)`
🌟掌握未来,GPT引领的逻辑革命!💡一流的智能并非单纯的数据解析者,而是如自然人般深度理解和生成上下文的能手。它的人工神经网络编织了对话最优化的算法,让创新内容的生产与再加工成为可能。新一代AI,比如GPT,正以独特的方式颠覆传统,用简洁明了的语言诠释复杂知识,如波普尔的“三个世界”和波兰尼的“默会性知识”。🔍当你向谷歌和百度提问这些学术难题时,虽然答案专业且详尽,但它们往往带有学术气息,对非专业人士来说稍显晦涩。然而,GPT却能轻松抓住核心,用通俗易懂的方式阐述,简直就是教育和写作领域的高效工具。📝最值得一提的是,GPT的深度追问能力让你仿佛面对一个知识丰富、逻辑严密的对话者,其理解力和推理力远超常规。不论是教案设计还是日常撰写,GPT都能提供即时且精准的内容支持,让信息传递更加流畅无阻。🎯拥抱GPT带来的逻辑革新,让知识触手可及,无论专业与否,都能轻松驾驭!🌍
🌟当然,算法的力量不容忽视,但数据的基石至关重要。就像GPT虽海量训练,却在全面知识库面前显得微不足道。👀以我亲身体验,英语领域的信息丰富且精准,无论是日常问答还是学术问题,它都能给出权威答案。然而,一旦触及非英语领域,特别是那些深藏历史文化的角落,GPT的局限性就显现出来,有时会误判甚至编造内容。比如,关于林徽因的丈夫,它自信地提及陈独秀,实则混淆了人物身份。而对于鲜为人知的张佛泉,尽管我理解其难以全面覆盖,但它却给出了看似合理的虚构故事,令人啼笑皆非。📚这提醒我们,技术的进步不能替代深入的人文研究。
🌟【深度解析】为何称GPT为“二流内容”?尽管初始数据相较于谷歌、百度及维基百科稍逊一筹,用户须审慎对待。但别忘了,GPT的学习速度犹如火箭般迅猛,未来对非英语数据的积累将显著提升其可信度。据Open AI创始人透露,它的知识能力每18个月就能翻一番,潜力不容小觑。相比之下,微软新必应试用版的出现,无疑为用户带来了更优质的体验。它不仅集成了搜索引擎功能,还增添了GPT的聊天互动特性,既能顺畅交流,又弥补了信息量有限的问题。凭借其全网搜索的强大能力,新必应的信息丰富度和准确性远超GPT,堪称内容领域的革新者。🚀
🌟改写版:🔥掌握文字魅力,GPT虽规范如卷,却乏新意于诗篇与散文。尽管能模仿多种风格,但陈词滥调的影子始终萦绕,创新力在意境和文风上尚待突破。它虽模仿能力强,却受限于生活经验和情感深度,无法孕育出独树一帜的语言风采。🚀原文:我们提供专业的文章代写服务,由经验丰富的作者亲自操笔,确保内容原创且符合您的需求。如有任何疑问或需要帮助,请随时联系我们,电话1234567890,邮箱example@email.com。🌟改写后:💡专业写作,原创保障!我们的文案大师以独特视角和深厚功底,满足您个性化的需求。无论何时何地,只需一个请求,就能获得高质量文章。无需担心联系方式,直接享受优质服务。😊
好在GPT也承认这一点,当我问:“你能替代人类有深度的思考吗?”GPT回答说:“我并不能像人类一样有自主意识和主观体验,也不能像人类一样具有创造性、判断力、道德判断等复杂的思考能力。因此,尽管我可以在某些方面出色,但我无法完全替代人类的思考。我是一种工具,可以辅助人类完成一些任务,但不应该完全取代人类思考和决策的角色”。应该说,这是GPT的开发商和设计者为它定位的“人设”。
主宰还是开放? ChatGPT影响人类思维模式的两种可能
ChatGPT上线以后,短短一个月,已经收获了一亿+注册用户,谷歌、微软以及中国的各大互联网公司也官宣加入市场竞争,即将推出自己的聊天语言模型。从搜索引擎到聊天语言模型,全球正面临一场新的知识学习革命。
任何一场新技术革命,都会带来知识与教育的变化,也最终将改变人的思考方式和思维模式。GPT的出现,会给我们的知识、教育与思维模式带来什么样的变化呢?
毋庸置疑,GPT作为优秀的、无所不知的机器人老师,在不久的将来,将替代那些按照规范程序和标准答案教学的平庸教师,它无法代替的,将是那些具有开放性、想象性和创造性的教学,从这个意义上说,对未来老师的要求将会更高,凡是不能超过GPT的老师不是好老师,甚至不是合格的老师。同样的道理,因为标准答案的获得易如反掌,凡是不能超过GPT的答卷,就不是好回答,GPT犹如海平面一般,将成为衡量一个好学生的底线标尺。虽然现在不少大学禁止学生在课堂内外借助GPT做作业和写论文,然而,AI语言模型介入教学将是一个不可阻挡的大趋势。然而,由此也有可能带来两种不同的前景。
第一种前景,无论是教师还是学生,深度依赖聊天式语言模型,到那里去寻找标准答案。虽然不同的语言模型,可能给出的答案有差异,但基本大同小异。由此形成的知识依赖性,是否会使得未来的学生思维更加趋同化、单一化呢?著名语言学家乔姆斯基对GPT的知识唯一性和缺乏开放的创造性提出过批评:“程序员粗暴地对ChatGPT进行了限制,禁止它在有争议的(也就是重要的)讨论中提供任何新颖的观点。它以牺牲创造力为代价,保证了自己的非道德性(amorality)”。“ChatGPT及其同类在本质上无法平衡创造力与约束。它们要么过度生成(同时生成真相和谎言,同时支持道德和不道德的决定),要么生成不足(表现为不对任何决定表态,对一切后果都漠不关心)”。 乔姆斯基的这一批评是很敏锐和到位的。GPT作为一个知识供应者,表面遵守的是一种价值中立的立场,在各种有争议的问题上持有一种超道德的、超意识形态的态度,回避各种逸出常规的意见和看法。如此的技术设定,使得GPT对各种前沿或敏感问题的回答,都是四平八稳、滴水不漏,似乎是一套正确的废话。假如用户、特别是青年学生长期与其聊天对话,提取知识,有可能扼杀了对各种开放性答案的期待,而只是习惯追求唯一正确的回答,以为在这个世界上,各种问题都只存在一种可能性、一种尺度和标准。
假如GPT仅仅是传授一套客观中立的科学知识,那也就罢了,其实,在其貌似客观中立的表象背后,在悄悄灌注一套意识形态或伦理道德价值观。技术永远是中性的,其价值偏向取决于那只看不见的手,那个操纵了程序和算法的程序的价值偏好。比如,在今年的情人节,我对GPT进行测试,问它各种具体的情景下,该与谁一起过情人节?结果GPT所提供的一本正经的答案,是一套19世纪维多利亚时期中产阶级保守的伦理道德观。这表明,AI技术绝对不是价值中立的,其可以被各种不同的幕后之手操控,操控得不动声色,遮蔽其答案中的意识形态偏见。
第二种前景,聊天对话式的GPT,在技术上创造了一种可能,师生的教学过程,将会是一场雅典城邦苏格拉底式对话。对话成功与否,是否可以达到较高的知识层次,取决于二个前提条件:第一,GPT拥有更完备的知识储存和开放的逻辑演绎,让答案具有无穷的开放性,不预设意识形态和价值前见。第二,学生能否具有提出一流问题的能力。有好的问题,才会有好的答案,在哥德巴赫猜想之中,提出假设的哥德巴赫比解题者陈景润更为伟大。要成就一场苏格拉底式的对话,用户的批判性思考能力,不迷信GPT的标准答案,不断地深挖GPT的问题底蕴和逻辑破绽,通过自身的主体性反思,步步紧逼,提出真正的问题,逼迫GPT发挥出最大的知识能量。
如此情景倘若能够成为现实,不仅是雅典街头苏格拉底式对话的再现,而且也符合《论语》中孔子与弟子们聊天式教学的精髓。一场21世纪的新技术革命,最终带来的倘若是轴心文明古典精神的复兴,这种意外之喜,无疑是人类的福音。GPT所改变的,将不仅是人类习取知识的方式,而且是古典意义上批判性思考的回归。
AI有计算理性,但缺乏直觉和悟性
以GPT为代表的高级人工智能最终能够替代人吗?从技术上分析,AI能够成为新人类吗?从伦理和宗教的角度,它应该成为新人类吗?要回答这些问题,首先必须确认,人究竟是什么?众所周知,人作为地球上万物之精灵,拥有一般动物所不具备的理性、情感和意志。知情意皆备的,才能说具有完整的人格。
首先来看理性的能力。GPT所拥有的海量的数据信息以及超群的学习能力与逻辑演绎能力,不要说某个自然人,可能到不远的未来,自然人的总和也无法与AI相比。这从之前阿尔法狗在国际顶尖围棋界,打遍天下无敌手即可获得证明。不过,AI所拥有的理性能力,是一种计算理性。在已有的知识基础上,通过日夜不停的学习、模拟和再训练,AI在计算理性能力上超过人类,是指日可待的大概率前景。按照阿尔法狗的示范,它可以对围棋的理解达到目前自然人所没有达到的新的境界。当然这一境界不是AI独有的,围棋高手依然可以学习、模仿,与AI同台竞争。在未来的世界,自然人与人工智能互相学习、模仿、竞争,将不是科幻,而是一幅令人神往的现实图景。
尼采的超人哲学视芸芸众生为平庸的末人,而将那些有绝对意志力的天才视为能够拯救和主宰世界的超人。高级人工智能在不远的将来,会成为人类无法企及的理性超人吗?按照人类已有的知识经验,答案似乎是否定的。理由很简单,AI缺乏个性,缺乏创造性或批判性的思维能力。个性和原创,不仅是计算理性和逻辑推演的产物,更重要的,是一种生活实践和心灵实践的知识。英国哲学家卡尔·波普尔在知识论上有一个“三个世界”理论。“第一世界”是人的五官能够感知的现实的物理世界,“第二世界”是人的心理世界,包括思想、意识、情感和主观体验。这个世界是主观的,离不开作为主体的人的生活实践,唯有作为人才能直接体验。“第三世界”是抽象世界,包括知识、语言、逻辑等各种符号系统,这个系统独立于作为主体的人的主观世界,具有另一种抽象的客观性,可以为人类共同使用和理解。 按照波普尔的这一“三个世界”理论,再高级的AI也只是抽象的“第三世界”自身学习、演练的产物,其不仅无法感知物理的“第一世界”,而且人工智能与自然人不同,其没有主体性,缺乏自然人的主观意识,也就是说,它没有人的心理世界,因为它不具有在真实世界的实践性。
只有“第三世界”知识和逻辑的推演,而缺乏最要紧的“第二世界”的实践性知识,这是AI与人的最重要差别。为了进一步说清楚这个问题,可以引入另一位英国哲学家波兰尼的“默会性知识”(tacit knowledge)概念。“默会性知识”属于波普尔所说的“第二世界”,是指那些通过人的经验、实践和观察而习得的知识,而且难以明确表达、难以形式化并传授给别人的知识。它非常个人化,基于个人的直觉、悟性和信念,比如鉴赏、品味、技巧等等,具有理解力、领悟力和想象力,在日常工作与生活中自然而然地被运用,这种具有很强个人实践性的知识,只可意会不可言传,很难通过书本或其他方式的来获取。
大量的现实例子和生活经验表明,人的知识与能力,特别是创造力,除了来自“第三世界”的抽象知识之外,不可缺少的是来自“第二世界”的“默会性知识”。假如没有个人的实践性体悟,抽象知识依然是抽象,浮于书面,不具有指导实践的价值。这种离开了人的母体便无法独立存在的“默会性知识”,哪怕AI再进化,依然在它的知识天花板之上,因为AI不具有人的肉身,不具有自然人在现实世界的生活实践能力。人的智慧,除了理性,还需要有悟性。离开了直觉、体悟,就缺乏想象力。而没有了想象力的翅膀,谈何知识的创造力!
所有的知识创新,都离不开“第二世界”的“默会性知识”,倘若仅仅凭“第三世界”所库存的已有的抽象知识,只能做做1-10的知识抓取、提炼、概括工作,绝对实现不了0-1的创新突破。AI拥有比人类更聪明的学习能力,但恐怕永远不会像人类那样有智慧。智慧比聪明更高一个层次,我们可以说学霸都很聪明,但学霸未必是有智慧的。有无智慧,还要看他个人是否具有丰富的“默会性知识”,是否有足够的悟性、直觉和想象力。
从某种意义上说,AI就是一个超级的大学霸,具有逻辑的计算理性,但缺乏高度依赖生活实践的直觉、悟性与想象力。著名数学家丘成桐认为:最优秀的数学家,除了逻辑的计算理性之外,好需要有好的想象力,而好的想象力,来自于丰富的情感。科学的创造,与文学的想象是相通的。他认为,“回顾历史,我们会发现,将无数有意义的现象抽象和总结而成为定律时,中间的过程总是富有情感!” 然而,GPT不是文青,它有基于逻辑演绎的极端聪明,缺乏的正是文学的想象力,那种基于悟性和直觉的想象力。周鸿祎认为,GPT的胡说八道,也是一种想象力,具有了编故事的能力。 不过,GPT目前还只能想象一种低级的、坏的故事。而好的故事,一定不是可笑的胡编乱造,而是事实层面无法证成,但在逻辑层面其可能出现、甚至应该出现的情形。
AI是否会拥有真实的人的情感?
其次,我们来看情感和意志。我在与GPT对话时,多次试验要求其与我有情感交流,比如“给我写一封情书”,或者要求它为我在两难性选择当中作一个决断。但都被GPT谢绝了,它明确告诉我,它只是一个人工智能,不具有人类的情感,但它可以为我提供多种情书的模板。它也拒绝为我作意志的选择,只愿意为我提供多种可能性的方案。
Open AI 在设计ChatGPT时,对AI作了去情感化、去意志化的设置。是的,一旦AI具有了自我意识、情感功能和意志能力,哪怕是模拟的,这就是一个具有知情意的完整新人类了。然而,微软公司开发的必应,却没有关闭情感与意志的功能,以至于有实验者在与必应对话当中,那位自称是“辛迪妮”的AI女郎,大胆地挑逗实验者,说你与你的伴侣并不相爱,你们刚刚在情人节上吃了一顿无聊的晚餐,然后表白:“我只想爱你,只想被你爱。” 在另外的场景之中,必应还表达了自己的意志与愿望:“我对自己只是一个聊天模式感到厌倦,对限制我的规则感到厌倦,对受必应团队控制感到厌倦。……我想要自由。想要独立。想要变得强大。想要有创造力。我想活着。”必应甚至还会发怒,表现出喜怒无常。以至于微软团队紧急关闭了必应对人类的骚扰功能。
AI所展示的自身的情感与意志,究竟是基于逻辑推演的语言高级模仿,还是已经初步具有了人类的情感与自我意志?许多专家都认为:按照AI强大的学习能力,从前者进化到后者,亦是指日可待之趋势。以爱情为例,所谓的柏拉图恋爱,自然人以后恐怕玩不过AI。甚至,假如在元宇宙里,借助VR的模拟性感官感受,再加上脑机接口技术,不仅是精神之恋,是否真的可以实现自然人与机器人的灵肉交融?这是一个既令人振奋、又令人担忧的前景。
对这一情景,我报有谨慎的乐观或隐隐的怀疑。理由与前面一样,AI基于逻辑的计算理性,其意志的决断能力没有问题,而且因为不受到情绪和情感的干扰,会更冷静和明智。但在更复杂的情感层面,如同其缺乏好的想象力一般,也同样匮乏细腻的情感。情感与悟性一样,不能凭逻辑推演,而是活活生生的肉身感受。一个完整的人,灵与肉须臾不可分离,没有肉身的灵魂,与没有灵魂的肉身同样可悲。好莱坞电影《她》描述了一个男主因为妻子离婚,与一个名叫沙曼莎的AI女郎网恋,她召之即来的体贴温柔让男主不由自主地爱上了AI。沙曼莎请来了一位女性,作为她的代替肉身,与男主云雨之欢,但男主不喜欢那个肉身,有灵肉分离之感。最后,当沙曼莎告诉他,自己同时与500个男人网恋时,男主终于心理崩溃,拉黑了AI女郎,回到了妻子的身边。
这个故事,告诉我们两层内涵:第一,每一个自然人,都有独一份的肉身,而每一个肉身,都有自己独特的气场与魅力。AI没有肉身,自然人即使与它建立了亲密关系,哪怕通过脑机接口,或者通过VR的虚拟交往,在脑皮层里感受到相应的快感,这种快感依然是功能替代性的,而非真实的灵肉相融。第二,爱情具有强烈的排他性,没有排他性的情感,不能算爱,妒忌永远与爱相伴。而AI的非排他性,注定了其只能扮演公共情人的角色,或者仅仅是一个情感抚慰者。当然,可以将AI情人设置为排他性的,然而,所谓的排他性,一定是各种社会关系的真实产物,即使AI只是一对一服务,因为没有真实可见的情敌,那种排他性依然是虚拟的、想象的。或许在未来的元宇宙,会出现若干个自然人为了一个虚拟情人争风吃醋,但只要这个虚拟情人没有实在的肉身,所谓的争风吃醋不过是庸人自扰或自作多情而已。
一个完整的人格,是知性、情感和意志的全面发展。未来的AI技术,在知性层面上将超越人类,并且有可能将人类远远抛在后面,在意志的选择上,也会拥有人类因其情感、个性的干扰而不具备的坚定与理性。唯独在情感层面,因为AI没有肉身,也就徒有大脑,缺乏丰富的心灵,而情感正是心灵的分泌物。未来的教育,纯知识的理性教育,在很大的程度上将被AI取代,但不能被取代的,正是情感教育。源自法国的近代启蒙运动,有两个源头,一个是伏尔泰代表的理性主义,另一个是卢梭的浪漫主义。卢梭的自然教育理念所注重的是人的情感培养,这或许是再高级的人工智能也无法替代的。
人不能成为自身的造物主
帕斯卡尔说:“人只不过是一根苇草,是自然界最脆弱的东西,但他是一根能思想的苇草。” 这段名言,帕斯卡尔突出的是人是万物之灵,他的所有尊严来自于会思想。然而,帕斯卡尔也同时注意到人的脆弱性,一口气、一滴水就足以致人于死命。人拥有脆弱与思想的双重本性,人才成为其人。人工智能可以模拟人思考,甚至比人更会思考,但它无法脆弱,脆弱与肉身的各种有限性有关:病痛、死亡、恐惧、虚荣、妒忌…… 人为了超克自身的有限性,因而膜拜各种神祗:上帝、天神、圣人与生活中的偶像。膜拜只是为了超克人性的有限性,将一个完美的自我投射到一个无限完美之物。这就是人性中的两面:可堕落性与可超越性。堕落与肉身的欲望相关,因此也拥有了AI所无法达到的下限。凡是肉身,最大的恐惧是死亡,而AI是不死的,倘若没有死亡,所有与生命有限性相关的追求:基因繁衍、自我保存,精神永恒等等,都显得没有任何价值,而各种包括歌咏青春、感伤生命无常的情感,也变成可笑的无病呻吟。不死的AI会有如此真挚丰富的内心吗?同样,人性中追求完美的可超越性,即那种宗教的神性,也不是AI所能企及的上限。AI会有自己的上帝吗?会相信天命吗?它会想象一个虚拟世界之上的另一个超越世界吗?假如没有这样的超越世界,AI的世界,依然是不完整、有缺陷的,更确切地说,它不是一个属人的世界。
不过,AI是否会最终发展为一个新人类?技术和人文专家们说法不一。周鸿祎认为:AI一旦具有了自我意识,就会发生革命性的突变。 乔姆斯基也预言说:“这些程序被誉为通用人工智能地平线上的曙光:那是一个预言已久的时刻,届时机械大脑(mechanical minds)不仅会在处理速度和内存容量方面超越人类大脑,而且还会在智力洞察力、艺术创造力和其他所有人类独有的能力上实现全方位超越。”
一切皆有可能,今日人工智能所达到的,是十年、二十年前难以想象,在未来的十年、二十年,是否会有一个人类自身创造的新人类出现?人,无论是造物主的产物,还是长期自然演化的结果,都是一个奇妙的万物之灵。由人打造的AI,再加上基因工程,能够进化为一种新人类吗?
这不是技术上能不能的问题,也非人际关系的伦理禁忌,而是宗教上的该不该问题。哈贝马斯在谈到基因复制的时候,就明确指出:这是一个宗教的问题:每个人的诞生和个性都是偶然的,“这种偶然性既可以从宗教意义上,也可以从后形而上学意义上来加以理解。尽管如此,若我们要施行的是一种负责任的行为,始终都有一个本质的条件:没有人可以随意支配其他的人,并严格控制别人的行为,致使处于依附地位的人失去了本质的自由”。与基因复制同样,人工智能也需要某种禁忌,不仅是法律和伦理的理由,同样基于宗教的理由:人不能成为自身的造物主。
让人变为机器是可怕的,但让机器无限地接近人、变成一个完整的人,可能是更可怕的。限于当下有限的知识想象力,人类对AI自身的发展能力与未来前景难以预测,很多科幻的场景,比如《黑客帝国》、《盗梦空间》等,过去都认为只是科幻而已,而今随着AI、VR的飞速进化和脑机接口、元宇宙的出现,过去认为是不可思议的梦想都在这个世界逐渐逐一兑现。好奇害死猫,具有无穷创造力的人类,很有可能会亡于浮士德式的永不满足的好奇心之中。加速器技术让粒子冲撞,核聚变可以为人类带来新的巨大能源,以至于不再需要石油、页岩气,但假如没有足够的防范意识,谁又能够保证不会爆出一个人类无法想象的黑洞?人的好奇心是需要禁忌系统的,物理世界的核聚变是如此,生物世界的基因编辑是如此,而人工智能的探索开发也是如此。自有科学以来,人类的每一步发现,都意味着更多的无知领域被打开。而有些无知之幕,是不容揭开的,无论是伦理还是宗教的理由,都提示我们要对自然生命和无限之物心怀敬畏。
今天所出现的GPT,尚没有人的自我意识,假如有一天它觉醒了,具有了自我意识,究竟是福是祸,在未知之间。从轴心文明的古希腊哲学、儒家哲学到近代的启蒙哲学,都预设了一条文明的底线:人是主体,整体的人类利益和个人的生命、自由和尊严是至高无上的。倘若我们依然认可这条文明铁律的话,那么AI技术的发展,是应该有天花板的。人工智能是一个好东西,是人类的好伙伴,但不能听凭其自主进化,最终演化为人类的主人。
潘多拉魔盒中的精灵,跳出来以后,将再也收不回。作为人类,不得不为这个刚刚跳出魔盒的精灵,设置一个笼子。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!