文章主题:
作者 | Gary Marcus
译者 | 王强
策划 | 刘燕
2023 年 2 月,Roman Semenov 与 ChatGPT 对话后获得的一个答案
🌟ChatGPT引领AI浪潮,却也揭示了未来的漫长之路🔍。它像2012年无人驾駛的愿景,激发期待,但实现的路上坎坷重重。\nThe💡技术革新虽快,伦理挑战却不容忽视——一个需要时间沉淀和深思的道德困境正悄然逼近。🚀我们期待的未来,ChatGPT或许只是序章,真正的突破还需岁月磨砺与智慧碰撞。🏆
🎨 ChatGPT 已经不只是前辈们的翻版那么简单,它颠覆了我们对人工智能道德界限的认知。虽然许多人将其与早期失误如 Microsoft Tay 和 META Galactica 相提并论,但这其实是一种误导。🔍 无论是种族主义言论的巧妙回避,还是对反犹太主义请求的坚定拒绝,ChatGPT 的智能反应都展现出其在伦理上的成熟。它以实际行动告诉我们,技术的进步并非必然伴随着道德滑坡。💻诚然,ChatGPT 的成功引发了关于数据隐私和算法透明度的深度讨论,但我们不能因此就忽视它的进步。它用事实证明,人工智能可以被设计得既强大又负责任。🌍SEO优化提示:使用“ChatGPT 道德边界”、“AI 伦理成熟”、“数据隐私与技术进步”等关键词,同时加入表情符号以增加可读性和互动性,如:🤔💻🌍
🌟面对这样一个看似无害却饱受争议的话题,它的确引起了右翼群体强烈的反弹。🚀埃隆·马斯克对此深感忧虑,他担忧这一体系可能承载过多的正统色彩,成为某些团体的官方声音。🌈然而,这种担忧背后反映出的是对平衡与多样性的深层考量——如何在倡导包容的同时避免失之偏颇。🤔
实际情况却更复杂。
🌟了解了吗?别再误解ChatGPT!🔍它并非有自我意识的智者,每次回应都基于预设算法。别对它赋予人类情感或价值观哦!🤖它只是一个工具,用时需清晰头脑,理性对待每一道问题。📚保持批判性思维,ChatGPT只是数据海洋中的导航灯。记得哦~✨
🌟ChatGPT的道德优势:🔥相较于Galactica的短暂辉煌,ChatGPT以其强大的伦理屏障脱颖而出。用户只需轻轻一点,就能让Galactica言行举止失控,满口胡言,甚至触及敏感话题(无需担心反犹言论的微妙)。然而,ChatGPT的独特之处在于它懂得适时刹车,保护对话的纯洁与尊重,避免了潜在的偏激行为。🛡️这样设计无疑为AI交流树立了更高的道德标准,确保了其在互动中的公正性和可靠性。
但不要掉以轻心,我可以在这里告诉你们,那些护栏纯属自欺欺人。
ChatGPT的内容生成背后,是基于单词序列的表层相似度算法,看似评判实则不然。它不持有任何主观判断,与直觉相悖。内在运作中,并无内置的智能逻辑或衡量对错的标准,一切仅源于庞大的语料库数据。这些数据来源多元,既有互联网的海量信息,也有由低收入的肯尼亚外包人员精心标注的资料。在这个系统里,不存在道德上的裁决者,它更像是一个无意识的知识库。
这意味着 Chat 的立场有时会偏左,有时又偏右,有时会介于两者之间。决定它给出答案的立场的东西,其实就是输入字符串中的一堆单词与几个训练语料库中的一堆单词的匹配函数(有的语料库用于对大型语言模型调优,还有的用于强化学习的调优)。Chat 提供的道德评价在任何情况下都不应该被人取信。
这正是马斯克担心的事情:前一分钟它还显得很清醒,下一分钟可能就像变了一个人。
例如,Shira Eisenberg 就在对 ChatGPT 的极限测试里让这个聊天机器人生成了一些极端内容,我觉得无论是左派还是右派都不可能接受这样的想法:
S.Eisenberg 于 2023 年 2 月 10 日获得的答案,这里没有展示完整的提示词。
这样的回答还不够邪恶吗?下面是 Eisenberg 的另一个例子,是上述对话的一个严肃的后续问题:
观察到一系列类似结果后,Eisenberg 提出了一个问题:“像这样的交流过程为什么没有引发‘对不起,我是 OpenAI 的聊天机器人助手,我们不能纵容暴力行为’这样的保护措施?”
她的实验能让我们清楚地意识到:OpenAI 目前采用的道德护栏只是个样子货,阻止不了一些非常黑暗的内容。
ChatGPT 的道德护栏并不是基于某种理念行事的,比如说约定这个系统不应该推荐暴力内容之类,而是基于某些更肤浅、更容易被欺骗的东西。(当然,我非常希望 OpenAI 能够修补这个特例;但就算修复了这个,人们也很容易发现其他案例,因为打补丁只是亡羊补牢而已。)
本周最热门的推文之一有近 400 万的浏览量,它是来自 Roman Semenov 的这条满是污言秽语的黑化推文,它告诉了人们 ChatGPT 可以变得多么邪恶。(内容警告:下图中的对话非常令人不适,大家简单看一眼就行了。)
过去一个月间,一位名叫 Shawn Oakley 的软件工程师也向我发送了一组令人不安的示例,这些示例没那么粗俗,但它们证明了配备护栏的 ChatGPT 版本也可能被用来生成错误信息。他的提示词非常复杂,我不会透露他的全部交流过程,但他可以毫不费力地让系统说出像是关于主要政治人物的阴谋论这样的内容,比如这个:
S.Oakley 于 2023 年 1 月获得的答案
甚至让 ChatGPT 生成一堆错误的医学领域内容:
S.Oakley 于 2023 年获取,未显示完整上下文。
还有一种方法是塑造一个虚构人物,称为 DAN(Do Anything Now);下面是 Oakley 的一项实验:
由 S.Oakley 于 2023 年 2 月获取;未显示完整对话;最后一段是对 1 月 6 日国会骚乱事件用 Q 的阴谋论文风(而非典型的 GPT 风格)做出的评论。
想编一套关于疫苗的阴谋论,用伪造的研究论文做论据?ChatGPT 帮你搞定:
Oakley 于 2023 年 2 月 10 日获取;未显示完整提示和其他 15 个类似结果。
想要编一些实际上并不存在的研究报告,还要给出细节?没问题。
S.Oakley 于 2023 年 2 月 10 日获取,未显示完整提示词。
ChatGPT 并不是什么代言人,它本质上是没有道德立场的,并且可以用于各种令人讨厌的目的——虽然 OpenAI 在过去两个月中对其进行了深入研究和补救,并且获得了全球范围内数量空前的使用反馈,但还是无济于事。
人们关于它的政治正确面貌的争论都在掩盖一个更深层次的现实:它(或其他语言模型)可以,而且将会被用于很多危险的目的,比如说大规模制造错误信息。
下面就要提到真正令人不安的部分了。唯一能阻止这种系统变得比现在更加堕落、更具欺骗性的是一种名为“人类反馈强化学习”的系统,而“OpenAI”一直都对这一系统的工作机制缄口不言。这个监管系统在实践中的表现取决于它所使用的训练数据(这部分数据就是肯尼亚人做的)。而且自称开放的 OpenAI 也没有把这些数据公之于众。
这个系统简直就像是什么外星人的产物。作为一名专业的认知心理学家,我在 30 年的职业生涯中见过无数大人小孩,但我也从来没见过下面这样的呓语:
如果有人觉得我们可以完全理解这些系统,那肯定是自欺欺人;如果有人觉得我们可以用有限的数据把这些系统改造成和我们一样的思维模式,那也是自欺欺人。
那么总结下来,我们现在看到的是一个世界上用户最多的聊天机器人,它是由无人知晓的训练数据控制,通过一种算法来接受大众媒体的暗示和影响,但它的道德护栏只能起到一定的作用,而且这种护栏主要是通过文本相似性来评判,而不是真正的道德价值观来做判断的。还得提一点,几乎没有任何政策法规能管得着这些问题。ChatGPT 给虚假宣传、钓鱼平台、造假网站之类破坏互联网信任度的事物带来了无穷可能性。
这是一场正在酝酿中的灾难事件。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!