文章主题:
ChatGPT与Sora热议不断,斜杠教授徐英瑾关于AI的 Q&A
《如何教人工智能说人话?》
徐英瑾 著
商务印书馆,2023年
Sora和ChatGPT屡屡刷新人类对AI的想象,
但是在哲学教授徐英瑾看来,ChatGPT并非真正的人工智能。
新书上市之际,一起听听他是如何回答关于AI的8个问题——
01
问:
引起热议的ChatGPT,到底是个啥?
徐:2022—2023 年国际人工智能界的头号大事,便是美国 Open AI 公司开发的ChatGPT横空出世。
在业界,那种比传统“聊天盒”(chatbox)功能更强大的软件,一般叫“聊天机器人”(chatbot)。而ChatGPT 属于“聊天机器人”范畴。不过,从人工智能发展史的角度看,此类平台就是早已出现的“聊天盒”技术与深度学习技术的结合,并没有体现出科学层面上的真正创新。
ChatGPT 向我们揭示的未来,很可能是一个文法通顺的庸人时代,一个连人的自欺本能都可能会退化的时代。
——“这毕竟是 ChatGPT 提供的答案,又怎么可能是错的呢?”
法国哲学家萨特提出“自欺”理论
02
问:
您刚刚提到的人工智能,就是科幻影视作品中的人形机器人吗?
徐:AI 与机器人本就是两个不同的学科,遑论人形机器人研究。
人类其实是具有“万物有灵论”的心理投射倾向的,即会将很多具有动物或者人形的非生命体视为有灵魂者。只要影视主创方将相关的机器人设计得像人,这样的视觉输入就会顺利激发观众的人格化倾向,由此自主赋予这样的机器人以智慧与灵魂。但这样的一种讨巧的做法却在实际的 AI 研究中完全行不通。具体而言,要赋予一个实际的 AI 体以任何一种实际的操作功能,都需要编程者在后台付出巨大的努力。
AI 虽然是一个具有高度技术集成性的学术领域,其商业运用的范围却非常广泛。由于二者之间的信息不对称,AI 在专业领域的“内部形象”与其在公众(包括政界与商界精英人士)心目中的“外部形象”之间往往有巨大的落差。
人形机器人索菲亚(书中插图)
03
问:
那AI是否有可能如同《流浪地球》中的Moss,以“保护人类”之名,牺牲个体人类呢?
徐:这倒不必过虑。
从戏剧冲突的角度看,AI 体在这些影视作品中所具有的全局性的冷酷视角,与人类个体所具有的局部性的(但同时却更具温情的)视角构成了鲜明的对照。
AI 虽然缺乏情感,但是在计算能力方面却是超越人类的。所以,AI 能够比人类更清楚何为“大局”——尽管这并非个体人类所希望接受的“大局”。但上述印象乃是建立在对于 AI 很深的误解之上的,因为超强的计算能力并不意味着对于全局知识的把控。实际上,任何一个智能体若要把握这样的全局知识,还需要一个针对所有问题领域的超级知识图谱,而该知识图谱往往是人类智慧的结晶。
而众所周知,我们人类暂且没有关于这些立场之短长的普遍一致的意见。这也就是说,不存在一个用以解决“电车难题”的统一观念前提,遑论在这一前提下去构建统一的知识图谱。从这个角度看,作为人类的智慧转移形态,任何 AI 体也不能超越人类目前的智慧上限,就所有问题的解决方案给出一个毫无瑕疵的知识图谱。
Moss模型(图片来源编辑余雄飞)
04
问:
您的意思是说,科幻影视作品误导了大家对AI的想象,那现实中我们衡量人工智能的发展程度有一个具体的坐标吗?
徐:是的。由于影视剧在现代传媒体系中的优势地位,以 AI 为主题的主流科幻电影,在相当程度上塑造了公众对 AI 的印象,并使得相关影视主创者对于 AI 的错误阐释外溢后导致全社会的误读。
笔者的本行是英美语言分析哲学,因此,在大约 2006 年开始关注人工智能哲学的问题后,笔者就开始系统关注人工智能领域中的自然语言处理问题。《如何教人工智能说人话?》便是笔者在相关领域的思考成果的结集。
所谓“人工智能”,就是用计算机提供的技术手段,对人类智能进行模拟或部分模拟的一门学科。而人类智能活动的一个非常重要的面向就是“会说话”。如果“会说话”乃是将人类智能与动物智能区分开来的最重要的指标之一,那么完整意义上的AI显然也应当具备这种特征。
《如何教人工智能说人话?》内页
05
问:
那现在的AI已经到了“会说话”的程度吗?
徐:首先我们要向大家介绍一个概念:
在 AI 学界,负责完成电子邮件处理、自动生成阅读摘要、自动翻译、文本自动生成这些任务的计算机编程研究,都会被打上“自然语言处理”(NLP)的标签。
各种各样的机器人聊天盒,都是针对不同的 NLP 任务而被设计出来的特定 NLP 机制,而不是某种面面俱到的针对所有NLP 问题的一揽子解决方案。
一些在原则上就很难通过大数据技术获得的语言材料,也就很难获得目下主流 NLP 技术的充分处理。这些材料包括:(甲)人类语言中的“双关语”、隐喻、反讽等修辞手段。(乙)缺乏足够网络数据样本的弱势语言,如少数民族语言与地方方言。
06
问:
最近Sora的推出,又令我们对AI模型的迅速发展产生新一轮的担忧。在此之际,哲学可以告诉我们什么呢?
徐:哲学研究者的任务,就是将NLP 研究未及言明的前提予以揭露,并对其进行反思性评判。目前 NLP学界研究的话题取向是完全被偶然的工程学需要所牵导的,而缺乏哲学(甚至是科学)层面上的整体谋划。更有甚者,在笔者所了解的范围内,语言哲学界目前也缺乏全面介入 NLP 研究的充分理论冲动。这种“两张皮互不相扰”的状态显然是不能让人满意的。
从总体上来看,哲学与 NLP 研究之间的关系,与哲学和一般意义上的理工科研究规划之间的关系,并无本质不同。这也就是说,与很多自然科学研究规划一样,不同的 NLP 研究规划都已经预设了这样或者那样的哲学立场,只是相关的实证科学研究者往往没有兴趣对这样的立场进行反思罢了。由于 NLP 的研究将不得不预设这样或者那样的关于语言之本性的看法,作为哲学分支的语言哲学(philosophy of language)与 NLP 研究之间的关系就会变得异常紧密。
Sora官方网页
07
问:
《如何教人工智能说人话?》这本书相比于图书市场上的与AI相关的其他通俗类书籍有什么特点呢?
徐:第一,本书绝对不属于“画馅饼类”的 AI 科普图书,即向读者许诺美丽而空洞的 AI 发展的未来,以便暗中为一些其实不那么成熟的科技投资方案助力。
第二,本书聚焦的乃是 AI 研究中的NLP 问题,并试图从哲学的角度对 NLP 问题背后的哲学理论问题进行反思。
第三,除了对于哲学资源的依赖之外,本书也将包含一定篇幅的对于语言学问题的讨论,特别是基于认知语言学的各种分析。同时,对于日语等小语种语料的讨论,也会在本书的讨论中占据比较高的权重。这样的讨论将既增加本书所涉及的经验材料的丰富性,也会帮助读者理解人类语言现象的多样性与复杂性。而这样的处理方式,也在相当程度上与上面所提到的对于英语思维霸权的警觉心相互呼应。
《如何教人工智能说人话?》封底
08
问:
作为既是小说家、又是哲学家的跨界学者,您在写作本书时有什么有趣的发现吗?
徐:笔者用ChatGPT 翻译的一段来自笔者本人所撰写的以三国为题材的历史小说中的语料。我们知道,要系统预测“喝”后面不会直接出现“饭”是相对比较容易的(答案当然是“不会”),但如果要预测在“喝”间隔十五个字之后会不会出现“饭”,则另当别论了。
而在大数据技术的背景下,统计学进路的支持者则是用如下的方式来回应乔姆斯基派的批评的:只要数据足够多,我们就能在前面所说的“词嵌入”与“注意力”机制的襄助下做到“以繁驭繁”——也就是说,我们可以通过更多的数据比对来确定相距较远的语元之间的亲疏关系。
但上述技术路径就难以应对冷门知识领域内的 NLP 处理任务(比如,当笔者试图用 ChatGPT 汉译日本哲学家西田几多郎的罗马音名字“Nishida Kitarō”时,系统竟然荒谬地输出了“坂本龙马”的答案)。
作者徐英瑾:地道的“斜杠”中年
1978年生,上海人。复旦大学哲学学院教授,浦江国家实验室顾问,专业为英美分析哲学、人工智能哲学。著有《人工智能哲学十五讲》《心智、语言和机器》《用得上的哲学》等。业余喜爱阅读中外历史,鉴赏各国影视,创作出五卷本长篇历史小说《坚:三国前传之孙坚匡汉》。
主业之外,徐英瑾还是骨灰级军模玩家,业余灵魂画手,是活跃于抖音、小红书、哔哩哔哩,收获无数粉丝的“网红”哲学博主(账号:徐英瑾文史哲)。
徐英瑾手绘作品
想了解更多人工智能与哲学碰撞的火花吗?
一起来读《如何教人工智能说人话?》这本书吧!
复旦通识文库
复旦大学与商务印书馆联合推出的大型通识系列读物,主题涵盖文史经典与文化传承、哲学智慧与批判性思维、文明对话与世界视野、科技发展与科学精神、生态环境与生命关怀、艺术创作与审美体验、社会研究与当代中国等,每年出版3—5种。
即将推出书目
徐英瑾《如何教人工智能说人话?》
任军锋《帝国的兴衰:修昔底德的政治世界》
郭晓东《春秋与孔子的历史世界》
吴晓群《古代希腊人的悲剧世界》
责任编辑:
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!