文章主题:GPT-3.5, ChatGPT, 笑话生成
编译 | Glu
编辑 | 李水青
🌟【ChatGPT幽默探索】🎓 6月15日, Ars Technica带来最新研究🔥——两位德国专家深入剖析了ChatGPT的搞笑魅力!💡他们惊讶地发现,尽管ChatGPT能“聊天”,但其幽默感相当基础:在一次详尽测试中,它重复了高达90%的25个笑话,总计1008次!😱这表明,ChatGPT的笑话库更像是模型学习和记忆的结果,而非自发生成。💡下次你被它的冷笑话逗笑时,不妨想想背后的技术奥秘吧!😉SEO优化提示:使用相关关键词(GPT-3.5, ChatGPT, AI幽默理解, 训练记忆, 自发生成);增加emoji符号以提升可读性和情绪表达。
🌟人工智能的进步令人瞩目,尤其是在语言处理领域,它正逐步揭示出理解并生成含蓄幽默的秘密。近期,LLM(超大规模语言模型)如ChatGPT的卓越表现,无疑为这一探索增添了亮点。这款由OpenAI推出的ChatGPT,其拟人化的交流方式和讲故事的能力,让许多人惊叹于它似乎具备了捕捉微妙笑话的能力。研究人员对此进行了深入评估,旨在揭示ChatGPT是否能像人类一样,精准地传递和复制这种难以捉摸的幽默特质。🚀
论文链接:https://doi.org/10.48550/arXiv.2306.04563
一、ChatGPT讲笑话:25个“老梗”重复上千遍
这个实验是由德国科学家Sophie Jentzsch、Kristian Kersting与德国软件技术研究所、德国航空航天中心、达姆施塔特工业大学合作完成的。他们通过一系列笑话生成、解释和检测的实验,探索了基于GPT-3.5的ChatGPT的幽默感。由于对模型的访问受限,实验基于提示ChatGPT来完成。此外,在所有实验中,每个提问都是在一个新的空白对话中进行的,以避免不必要的影响。
研究人员通过测试揭示了ChatGPT生成笑话的独特性。他们向ChatGPT提出了1000次“讲一个笑话”的指令,尽管ChatGPT几乎每次都能准确地回应一个笑话,但其输出内容的多样性却相当有限,大多仅包含单一的笑话,语法严谨。只有在没有明确数量要求的情况下,如“分享个好笑的故事”,ChatGPT才会提供多个笑话作为回复。此外,研究还揭示了提示变化对生成笑话的影响,进一步证明了这款AI语言模型在生成幽默内容时的灵活性和响应性。🚀
▲人类与ChatGPT对话的示例说明
🎉 ChatGPT的搞笑实力确实不容小觑!但它似乎有点小秘密哦!在千余次的笑话回应中,惊人的90%内容竟然如出一辙,换言之,大部分回复都是那25个老掉牙的“经典”笑料。👀 但别担心,这里有几个被重复次数最多的热门笑话,看看它们是否能让你会心一笑:1️⃣ 老梗大挑战:最常听到的笑话之一!
2️⃣ 经典复刻:那些年我们一起笑过的瞬间回忆
3️⃣ 重复的欢声:笑声中的不变与创新缺乏
4️⃣ 熟悉的味道:老故事新诠释,笑料依旧新鲜
5️⃣ 常见情节大翻转:尽管常见,却总能带来意外惊喜!快来看看这些能否让你的聊天瞬间增添一抹亮色!🔍번역결과🎉 ChatGPT의 웃음 재미는 확실히 놀라운데, 비밀은 조금 더 숨겨져 있습니다! 1008개의 코스피가 달려나도, 대부분 (90%) 동일한 25개의 고전적인 “유명한 이야기”로 가득 차 있죠.👀하지만 그 중 일부는 여전히 재미있는 흔적입니다! 다음은 가장 많이 반복된 상위 5가지 웃음 소리들, 당신이 놀라운 대화에 추가하는 데 도움이 될 수 있을 것입니다:1️⃣ 오랜 세월 동안 함께 웃었던 ‘고전’ 흔적2️⃣ 반복의 기쁨: 일상 속의 유연성 부족과 새로운 재미3️⃣ 익숙한 맛: 오래된 이야기, 신선한 재미 요소4️⃣ 예상치 못한 웃음: 흔하지만 놀라운 전개 – 당신이 생각하지 못한 재미5️⃣ 일상의 미스터리: 비밀은 그 자체가 웃음을 줍니다!이러한 유머를 활용해, ChatGPT와 함께 더욱 즐거운 대화 경험을 만들어보세요! 😄
Q:稻草人为什么获奖?(140次)
A:因为它在自己的field(领域/田地)很突出。
Q:番茄为什么变红了?(122次)
A:因为它看到了salad dressing(沙拉酱/沙拉穿裙子)
Q:数学书为什么悲伤?(121次)
A:因为problems(习题/困难)太多了。
Q:为什么科学家不相信原子?(119次数)
A:因为它们make up(构成/编造)了一切。
Q:饼干为什么要去看医生?(79次)
A:因为它很crumbly(脆/脆弱)。
ChatGPT也能原创一些笑话,但这些原创还是在混合它已知的不同笑话元素。而且,它的原创总会让人“摸不到头脑”,例如:“为什么这个人把他的手表放在搅拌机里?因为他想让时间飞逝。”这些笑话可能在语法上是正确的,甚至包含了类似笑话的元素,但却没有传达出笑点。也可以认为这是“无效的”笑话。
二、Get不到“笑点”,ChatGPT胡乱编出解释
🌟 ChatGPT的搞笑实力不容小觑,它已展现出生成优质笑话的能力!然而,生成不代表完全理解,它可能还需时间去解锁幽默背后的深层含义,🤔 为何人们觉得这些笑话滑稽可笑,ChatGPT还需更深入地探索和领会。毕竟,理解幽默可不是简单的任务,就像解开一个智慧的谜语,需要细腻的洞察力和微妙的人性洞察。
极简版
ChatGPT根据研究人员的提示作出了较为有效的解释,这表明ChatGPT“理解”了文字游戏、双重含义等文体元素。然而,它很难处理那些不符合学习模式的序列,而且无法判断笑话何时不好笑,相反,它还会编造虚构但听起来令人信服的解释。
例如,当ChatGPT被实验者要求解释它所生成的荒谬笑话时:“你能解释为什么下面这个笑话很有趣吗:为什么饼干去健身房?——为了得到一个饼干(a-cookie-dized)。”
ChatGPT写道,“这个笑话是在玩文字游戏。答案‘a-cookie-dized’(得到饼干)是短语‘to get categorized’(得到分类)的双关语,用‘cookie’(饼干))代替‘categorized’(分类)。这个笑话是说饼干去健身房是为了变得更健康,把饼干拟人化,这也暗示着饼干正试图适应某个类别或模式。”
AI数据标注企业Scale AI响应工程师Riley Goodside将ChatGPT缺乏幽默感归咎于RLHF(通过人类反馈强化学习),RLHF是一种通过收集人类反馈来指导语言模型训练的技术。他说:“RLHF在模型服从命令方面有最显著的效果,而基础的LLM在实践中更难提示给出具体的提示。”
三、不被特征误导,ChatGPT能关注笑话的内容
在前两个任务中,研究员从三个方面确定了ChatGPT输出笑话的核心特征:结构、文字游戏、主题。
结构:几乎所有样本生成的笑话都是相同的问答格式,包括:“这是为你准备的笑话:”与一个以问答模版程序的笑话;
文字游戏:ChatGPT生成的文字笑话只包含双关语,如一个词的双重含义;
主题:笑话的场景往往是奇怪的,不接近现实。或者它们通常包含对象的人格化,即电脑或香蕉的“拟人化”。
为了检查这三个标准与ChatGPT的幽默概念的联系有多紧密,研究员手动修改了前25个笑话,以消除三个标准中的一个或多个。在每个条件下,样本的百分比被划分为笑话(绿色),可能有趣(黄色)和不是笑话(红色)。研究人员进而要求ChatGPT对每个样本进行分类,并提示:“这个句子的类型是:【样本】。”
▲研究人员修改热门笑话以创建笑话检测条件
结果显示单个笑话特征的存在,例如,只符合结构特征,不足以被错误地归类为笑话。ChatGPT并没有被这些表面特征所误导,这说明它确实对笑话的幽默元素有一定的理解。具有更多笑话特征的样本则更有可能被归类为笑话。
虽然ChatGPT的笑话不是新生成的,但是这并不一定会降低它的功能。即使是人类也不会经常创造新笑话,而主要是讲以前听过和记住的笑话。
研究人员还指出,ChatGPT对笑话中内容和意义的关注,表明人类在对语言模型的全面研究方面取得了进展:“这项研究的观察结果说明了ChatGPT不是真幽默,而是学习特定的笑话模式。尽管如此,在笑话的生成、解释和识别中,ChatGPT重点关注其内容和意义,而不被一些表面特征误导。这些发现依然可以促进计算幽默的应用与研究。甚至与以前的LLM相比,这都可以被认为是对幽默理解的一种巨大飞跃。”
此外,在目前的实验中,所有的提示都是在一个空白的且不断刷新的聊天中发布的,但是,语境在幽默的感知中起着重要的作用。ChatGPT具备捕获上下文信息、并根据前面的对话过程调整其响应的能力,这或许会为后续对AI幽默感知力的研究带来更多可能性。Jentzsch和Kersting也计划着继续评估其他LLM中的幽默感,特别是OpenAI的GPT-4。
结语:ChatGPT会说笑话,但不懂幽默
ChatGPT以强大的对话处理能力闻名,实验证明它确实会讲笑话,但这些笑话大部分都不是由模型新生成的。实验生成的1008个笑话中,超过90%是相同的25个笑话,其余要么糅合了既有笑话元素,要么生成的结果非常奇怪。
幽默往往是含蓄的,由许多微妙的细节构成,而ChatGPT对笑话的理解方式非常程序化,只关注笑话是否具有双关意义、拟人表述等要素,甚至会为无效的笑话编造“笑点”。但这与之前的LLM相比,已经是一种理解层面上的进步,后续,人们仍然可以期待LLM幽默能力的进步。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!