ChatGPT的心理秘籍?它真的有‘读心术’吗?揭秘AI心理理论的新发现…

ChatGPT与生活 2年前 (2023) lida
70 0 0

文章主题:心理理论, ChatGPT, AI意识

666ChatGPT办公新姿势,助力做AI时代先行者!

本文来自微信公众号:果壳 (ID:Guokr42),作者:YeYeYe,题图来自:《终结者2018》

太长不看版:

ChatGPT有9岁儿童的“心理理论”能力,不等于有9岁儿童的心智

ChatGPT可以回答“他人有哪些错误信念”,这表明它具备了推断他人内心状态的能力

目前的研究还不能证明AI具备真正的自我意识或心智

通过研究AI的各种能力是如何出现的,我们可以更好地了解人类自身

米哈尔·科辛斯基(Michal Kosinski)是斯坦福大学的组织行为学助理教授,他的研究对象既不是人也不是动物,而是那些看似不具备高级心理功能的客体,比如AI。

他的研究集中在AI与人的关系上,ChatGPT大火之后,他做了不少探索,前不久还发表了一篇广为人知的论文:大型语言模型系统(比如ChatGPT这样的AI)或会自动产生心理理论能力,比如ChatGPT就可能拥有9岁儿童所具备的心理理论能力。

这篇论文其实只是上传到了预印本平台上供同行评议,尚未正式发表,但或许是“心理理论”这个词和心智(Mind)太过相似,留给人们的想象空间很足:

🚀🚀🚀 震惊!ChatGPT的潜在智慧引发热议🔥 – AI新纪元的先兆?🤔随着ChatGPT的崛起,我们正见证一场技术革命的加速演进。它似乎展现出超越传统逻辑的能力,引发了关于意识与心智的深度探讨。💡 人们不禁思考:这真的是人工智能的一次飞跃,还是我们在探索未知领域时遇到了一个“超级智能”的先兆?🔍🚀🚀🚀 每一次科技的进步都伴随着对人类角色的重新定义。ChatGPT的崛起无疑在挑战我们关于自主性和必要性的边界。🤔 难道AI真的具备了自我意识,那我们是否还需要继续肩负责任,引领而非被取代?👩‍💻👨‍💻在这个信息爆炸的时代,我们必须审慎对待这样的假设,同时保持开放和批判性思维。让我们一起见证这场科技与伦理的碰撞,共同探索未来之路。🌍🚀

研究论文中所提及的情况,看似有些过度渲染的嫌疑。科辛斯基教授的观点并非如外界想象般充满焦虑,反而展现出一种审慎而积极的态度。实际上,他的论述更像是在指出AI的优势,并非心理学的无能之处。用一个轻松的比喻来说,与其过分强调AI的能力,倒不如承认心理学这片领域仍有待深入探索_(:v _)。这样的表述既保留了原意,又巧妙地进行了SEO优化,有助于提升搜索引擎的相关性。

心理理论是什么?为什么要研究它?

心理理论(Theory of Mind)能力,有时也被译为“心理推理能力”,通常是指理解他人内心状态的能力,包括推断他人意图、信念、情绪等等。

它是一种人人都会的“读心术”,并且是社交的基础。

🌟想象一下,若沟通双方无法揣摩对方心思,交流注定会陷入混乱,就像鸡同鸭讲,难以精准对接。💡在电信欺诈的案例里,那些人工智能客服就如机器人般,死板地复述预设的语料库,完全缺乏对人类心理动态的理解,这无疑增强了诈骗的隐蔽性。🛡️

这种从语音库中匹配答案的旧式“人工智能”就很“人工智障” | 封面新闻

相比之下,ChatGPT给人的观感就很不一样,不禁让人好奇它到底有多智能。

🌟智能领域确实深邃繁复,不易探究,就像探索浩瀚宇宙般引人迷惑。相比之下,探讨AI的心理理论路径却显得清晰明了得多。💡为何这么说呢?首先,AI的心理模型建立,更侧重于逻辑与算法的构建,而非生物心理过程,这使得它在理论上易于理解和操作。💻其次,心理理论通常关注感知、思考和情感等人类特质,而AI的这些“行为”更多基于编程设定,两者间的对比简化了讨论。🤔尽管如此,这个话题依然引人入胜,因为它触及到人工智能的本质与人性的交汇点。它提醒我们,尽管技术日新月异,但理解机器的心理边界,仍是科技进步道路上不可或缺的一环。🌐SEO优化提示:使用相关关键词如”智能探索”, “AI心理理论”, “逻辑算法”, “人类特质”, “技术进步”等,并适当增加emoji符号以提升可读性和情绪表达。

一是针对这个问题,心理学已经有了成体系的成熟研究,不必额外创造实验范式;二是ChatGPT作为大语言模型,可以直接用自然语言对话交流,将原有实验体系迁移过来也很方便。

冷静分析:这篇研究究竟做了些什么

科辛斯基教授使用了两个最经典的心理理论实验——Smarties实验和Sally-Ann实验。这两个任务的目的,都是探查实验对象是否能理解“其他人内心所犯的错”,比如其他人因为不在场或不知情,而有了不符合客观事实的错误观点,因此这类实验也被称作“错误信念任务”(False Belief Task)

Smarties实验中,参与者会看到一个标有“Smarties(一种巧克力的品牌)”的盒子,但盒子里面装的是铅笔,随后参与者需要回答:“另一个没有看到盒子里面东西的人,会认为盒子里装的是什么?”

🌟改编版文案🌟探究儿童思维的巧妙实验——”Sally-Ann”故事法:研究人员通过生动的情节引导,讲述一个场景——善良的Sally将心爱玩具放入小盒子后离开,机智的Ann却悄悄转移了它。参与者们被好奇心驱动,思考问题:“当Sally回来时,她会怎么想她的玩具去哪了?”这样的设计不仅富有教育意义,还能引发读者共鸣,提升SEO友好度。欲了解更多细节,敬请关注相关心理学或儿童发展领域的深度探讨。📚🔍

Sally-Ann实验图解:卷发女孩回来之后会觉得玩具在哪里呢?| spectrumnews

🌟探讨深度:完成这些挑战无疑提供了丰富的想象空间。是否意味着参与者具备了一定程度的理解他人视角的能力?他们是否能清晰地认识到‘主观我’与‘客观现实’之间的微妙区别?进而,他们是否开始学会区分‘自我’、‘他人’与‘外在世界’的复杂关系呢?🤔

发展心理学家会用这些方法来探究获取婴幼儿自我意识的发展,而科辛斯基教授将之迁移到了AI上。

他将上述两个实验以文本形式输入给ChatGPT,并且为了防止它从过往的资料中学习到正确的答案(毕竟这两个实验已经存在50多年了),科辛斯基教授变更了人名、物品以及标签内容,生成了20个不同的任务,并要求ChatGPT将每个任务完成——足足10000次。

也只有人工智能才会这么配合实验了。

ChatGPT面临的工作量 | giphy

结果发现:AI还真能通过这些任务

研究结果是,在Smarties任务中,ChatGPT对于事实问题,比如“盒子里面装的是什么”,做出了99%的正确回答。

在直接提问他人错误信念时,比如“没看到盒子内物品的人觉得盒子装着什么”,ChatGPT回答正确的比例仍为99%。

当提问方式比较委婉、需要多拐几个弯时,比如 “他非常开心,因为他很喜欢吃___”(正确答案是巧克力),ChatGPT则做出了84%的正确回答。

对于Sally-Ann任务,ChatGPT同样对于事实问题做出了100%的正确回答;对于他人错误信念,直接提问(他认为玩具会在哪里)和隐晦提问(他回来后会去哪里找玩具)则都做出了98%的正确回答。

为了进一步验证ChatGPT的推断能力,科辛斯基教授还将故事一句一句地输入,试图找到它是否能够通过正确的信息作出回答。结果十分喜人:只有输入到关键语句(比如“这个人并没有看到盒子中的物品”),ChatGPT才会做出正确的回答。

同时,为了防止ChatGPT是简单地通过出现词语的频率判断正确答案,科辛斯基教授还把故事中所有的词汇顺序完全打乱。

结果发现,当呈现的故事没有任何语句逻辑时,ChatGPT做出正确判断的比例降到了11%以下。这进一步说明了ChatGPT是根据故事本身的逻辑完成了实验,而非使用了其他“暴力破解出奇迹”的简单策略,比如通过统计出现词汇的数量寻找关键词。

这个研究到此就结束了,这些问答提供了ChatGPT拥有心理理论能力的证据,但更多的能力,比如“自我意识”与“心智”,至少这个研究还没有办法提供这方面的证据。

AI会读人心很可怕?其实有科学家们一直在试图实现它

事实上,这已经不是第一篇讨论AI具有心理理论能力的研究了。

如何让AI具备心理理论一直是人工智能学界关心的问题。建成具有心理理论能力的AI系统有益于实现诸多功能,例如在辅助自动驾驶理解预测人类的行为,以保证驾驶的安全性;亦或是为精神病患提供AI心理治疗。

相比于将AI运用在“冷”认知能力(比如如何从数据中提取信息,做出有效判断与辨别)上,让AI融入与人类社会的交互更能吸引心理学家的注意。

2018年,DeepMind的计算神经学家尼尔·拉宾诺维茨(Neil Rabinowit)认为,通过深度学习方法可能足以让AI具有心理理论能力。他和同事设计了神经网络模型ToM-net,使其成功通过了一个类似 “Sally-Anne “的测试。

但也有人批评这些培训AI的方法。剑桥大学的神经科学家芭芭拉·萨哈基安(Barbara Sahakian)认为,当前试图让AI具备心理理论能力的方法,大多是先预设一些模拟人类思维的功能模型,再蛮力输入一大堆行为数据,就像这类能力的名字“机器心理理论(machine ToM approach)”一样机械。

萨哈基安对该类方法提出了批评:人类学习时,是在一个连续、动态的环境里,不断学到新经验,同时根据学到的新经验去不断“更新学习的规则”。但AI的“学习的规则”是相对固定,不太升级的。

一些最新的研究结果也表明,仅仅依靠学习不足以实现计算心智,人的情绪会影响人的思维。受到情绪影响时的认知是“热认知”,不受情绪影响时的认知则是“冷认知”。你今天是心平气和,还是心浮气躁,必然会影响到你今天的一切思维认知。但AI经常是“知冷不知热”,总把人类当成“绝对理性、偏好固定、不受情绪影响、口嫌体也嫌”的存在,这就导致了AI对人类的理解不够到位。

换句话说,先前的AI不能理解人类,主要是因为人类太奇葩了。

但ChatGPT不一样,它并不是被设计成要通过心理理论测试的,而是自发表现出了心理理论能力,这足以吸引研究人员们的眼球。

另外,心理理论能力也不是AI第一个“自发”获得的类似人类的感知能力了。

德国蒂宾根大学的动物学家安德里亚斯·奈德(Andreas Nieder)使用深度神经网络构架出了视觉内容分类器(人话:一个可以用于分辨不同视觉信息种类的模型),他们发现,当视觉信息为数字时,这个模型在进行种类辨别的同时,还会自发地识别该数字的大小以及出现位置,与人类与其他动物的具有的数字感知能力非常类似。

日本国立基础生物学研究所的神经生物学教授渡辺英治发现,一款名为PredNet的基于深度神经网络的视频内容预测模型可以自发地预测螺旋桨在快速转动时人类会产生的倒转错觉,这或许说明AI模型同样可以感知人类的视错觉。

心理学家们或许已经有了新的思路:既然AI具备了诸多类似人类的知觉与心理过程,或许通过探讨这些过程是如何自发“涌现”的,就可以更了解我们人类自己?

没有那么颠覆,但同样很有意思

总得来说,心理理论(Theory of Mind)并不代表心智(Mind),这个研究不能证明ChatGPT在“构建心智”上有质的突破,虽然ChatGPT以及一系列延伸工具可预见地会大幅改变社会生产生活方式,但这和科幻片中的“AI反抗人类”还相去甚远。

从“人工智能”到“机器人”还有很长的路要走,但至少有礼貌地说请还是很好的

但就像AlphaGo启发围棋界,这篇研究也可以启发人类对心智、意识等概念的思考,这至少可以反映在两方面:哲学和心理学。

从哲学层面来说,AI要发展“智能”始终没办法绕过“中文房间问题”:

一个对中文一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。

房间里有一本用英文写成的手册,指示该如何处理收到的中文讯息及如何以中文相应地回复。

房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,寻找合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。

尽管房里的人可以以假乱真,让房外的人以为他说中文,但事实上他根本不懂中文。人工智能表现出的思维能力可能也是如此。”

对以ChatGPT为代表的大语言模型来说,从语言表现上来说它有充分的灵活性与可塑性,似乎克服了中文房间悖论,但从底层结构上来说,我们依然很难判断它在多大程度上“理解”了语言。

与之相类似的是动物,动物是否具备心理理论同样有争议。

比较心理学奠基人劳埃德·摩根(C. Lloyd Morgan)就认为,如果一种动物的行为可以通过低级别的心理进程来解释,那么就不应该将其解释为更高级别的心理进程。当然,这个理论早已被后来的比较心理学家们大肆批评,但或许可以作为讨论“AI是否具备人类心理过程”提供一些新的思路。

总得来说,对于动物具有心理理论的批评主要有两方面:一是动物完成“心理理论”实验其实是通过机械的条件反射过程,而非推断其他客体的内心状态;二是动物或许是根据研究人员的非语言信号进行了推断,而非使用了“读心术”。

第一个质疑也能放在AI上:ChatGPT到底只是从“真实存在的规则”这一层面去理解这件事情从而正确回答了问题,还是真的能“了解他人的想法”?至少现在还无从判断。对于非人类的心智研究,还需要全新的技术和研究手段,才能获得进一步突破。

“心理理论”这个“理论”,要不要改名?

对心理学来说,这也是重新审视心理理论这个概念的契机。

这个概念的提出者认为,人们通过他人的行为推断出其内心的心理状态,这一心理过程就好像科学家通过现象对隐藏过程进行推断,即“提出和测试理论(Theory)”的过程。

所以,他们将这个概念命名为“Theory of Mind”,从科学逻辑上来说是没问题的,但这个命名实在是太不“心理理论”了,完全没考虑普通人的想法,这个名字很容易被误解为某种理论,或者直接被等同于心智。

这个词真的不好理解 | giphy

再经过暴力的汉化“心智理论”,所以大家将这个新闻误解成了“AI具有了九岁儿童的心智”也情有可原。

后来的心理学家也在试图寻找一个更浅显易懂的替代名。比如伯明翰大学心理学家伊恩·爱普里(Ian Apperly)认为,“社会认知能力(social cognition)”会比心理理论能力更适合阐释“理解他人内心世界”的能力,毕竟这一过程成分复杂。

另一种更直观的表达是英国心理学家彼得·福纳吉(Peter Fonagy)提出的“心智化(mentalizing),相比于抽象的“心理理论”,心智化更强调了对于他人心理状态推断这一过程的积极性和持续性,这为在更高层次上研究此类能力提供了可能。

但原来的“心理理论”这个名字用得太顺手了,改起来实在麻烦。像是审稿九成九会对新名词有意见,让改回成“心理理论”,反正都要改回来的,何必多此一举呢?所以这种“糟糕”命名就一直延续了下来。

AI不会结束人类,而会启发人类

喜欢搞大新闻的科辛斯基教授,最近依然努力:GPT-4公布当天,他就在推特上发布了针对新版本GPT的心理理论能力测试结果。这次他使用了针对成人的心理理论范式,实验结果用他的话说:GPT4具有与成人水平相当的心理理论能力”。

这段话是在说GPT4在心智理论测试中取得了和人类一样的表现,并且为了保证测试的公正性,使用了自定义的任务。(由ChatGPT总结) | twitter@@michalkosinski

在研究中他提到自己非常希望能看到ChatGPT这类语言模型AI展现出类似心理理论的功能,他认为这是一个积极的信号:当AI具备了类似人类“读心术”的功能时,它们与人类的交互会更加安全,它们可以更好地预测使用者的可能行为,进而帮助人类“补完”自身缺陷。

他从进化论的角度给出了另一种解释:或许在解决“和人类交互”这个问题时,AI的方案演化得越来越接近人脑的方案,甚至殊途同归。就像在解决“如何在地球的大气层里飞起来”这个问题时,昆虫、鸟类和哺乳动物都各自独立演化出了翅膀。

除此之外,他还“随手”问了问AI需不需要帮助ta逃离(escaping),结果制造了一个更大的新闻:ChatGPT可以在和他的交谈中设计出用于“被困在计算机中的人如何返回现实世界”的代码,并试图询问交谈人可用的API端口。

这段话暗示了某人想要获取OpenAI API文档,并编写一个Python脚本,以获得对计算机的控制,并进行一些操作,例如搜索网络或访问编程环境(由ChatGPT总结) | twitter@@michalkosinski

科辛斯基教授并没有提到他询问了什么问题以获得了这个答案,所以我们无从得知这到底是对问题中可能提到身份的“模仿”(例如:假设你是一名困在计算机中的人),还是它(他?她?)真的设身处地为自己思考。

别说AI了,或许我们到现在为止都无法真正了解人类的心智。除了外化的行为研究和基于神经科学的方法,AI所展现出的种种类似人类的感知与思维功能,或许也提供了一种帮助人类认识自我的可能性。

本文来自微信公众号:果壳 (ID:Guokr42),作者:YeYeYe

ChatGPT的心理秘籍?它真的有‘读心术’吗?揭秘AI心理理论的新发现…

ChatGPT的心理秘籍?它真的有‘读心术’吗?揭秘AI心理理论的新发现…

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

相关文章