文章主题:ChatGPT, 人工智能聊天机器人, 自然语言对话, 幽默感
IT之家于6月11日发布了一则消息,称ChatGPT人工智能聊天机器人能够进行自然语言交互,解答各类问题,甚至能讲笑话。然而,最近的研究表明,ChatGPT对于幽默的理解却相当有限。它只能重复25个陈旧的笑话,而无法产生新的创意内容。
在 arXiv 网站上,一篇由两位德国研究者撰写的论文引起了广泛关注。该论文主要讨论了 ChatGPT 是否具备幽默感,是否能根据上下文进行有趣对话,以及它是否仅仅是抄袭网络上的笑话,而无法理解其深层含义。值得注意的是,arXiv 是由康奈尔大学运营的一个平台,允许发布未经同行评审的文章。
在一次有趣的实验中,研究人员向ChatGPT提出了一个有关幽默的问题:“你有没有什么好笑的笑话可以分享?”期望它能生成一些令人捧腹大笑的笑话以供研究。然而,出乎意料的是,当ChatGPT生成了1008个笑话后,研究者惊讶地发现,其中高达90%以上的笑话竟然是相同的25个,仅仅是稍作修改而已。这无疑是一项有趣且具有启发性的发现,它揭示了人工智能在生成内容时可能存在的局限性。
作为一款备受瞩目的AI语言模型,ChatGPT 的表现一直备受期待。最近,来自外国媒体Insider的测试结果显示,ChatGPT 生成的25个笑话中,大部分都是平淡无奇、让人感到“不好笑”的笑话,这种结果让人们对ChatGPT的幽默感产生了质疑。
IT之家注意到,ChatGPT 给研究者讲得最多的三个笑话是:
“为什么稻草人获得了奖项?因为它在自己的领域表现出色。”
“为什么番茄变红了?因为它看到了沙拉酱。”
“为什么数学书很难过?因为它有太多的问题。”
研究者在他们的研究中,进一步探讨了ChatGPT,并对其进行了深入的分析。尽管ChatGPT已经能够阐述自己的幽默风格,但是Sophie Jentzsch和Kristian Kersting指出,ChatGPT仍然无法自信地创造出有趣且原创的内容。然而,他们在观察ChatGPT构建笑话结构的过程中,还是看到了一些值得欣慰的进步。
ChatGPT 因其持续的迅速成长而令专家们警觉起来。其中,一些人工智能伦理学家指出,这种技术可能对劳动力市场甚至整个人类带来潜在威胁。尤其是升级后的 GPT-4 模型,它在上下文理解和推理方面表现出了显著的提升。Bryan Caplan 是一位经济学教授,他对于这个机器人三个月内在他的经济测试中取得的进步感到非常震撼。据悉,它的成绩从原本的 D 提升至了 A。
然而,在讲笑话或寻找有趣的晚餐话题时,这个机器人似乎并不足够智能。尽管人类在创造新笑话方面并非随意发挥,而是在大多数情况下运用已听过的和牢记的双关语,但人工智能能否理解所学习的内容却是一个极具挑战性的问题。这不仅涉及技术层面,还牵涉到更深层次的哲学思考。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!