ChatGPT何能何畏?对话科技教父,揭开大型语言模型的真相与未来

ChatGPT与PPT 2年前 (2023) lida
56 0 0

文章主题:关键词: 人工智能, ChatGPT, 大语言模型, 技术发展

666ChatGPT办公新姿势,助力做AI时代先行者!

ChatGPT何能何畏?对话科技教父,揭开大型语言模型的真相与未来

文 | 金泰

编辑 | 喻舟

🎉 情绪高涨,关于生成式AI的热议已成热门🔥!然而,随之而来的忧虑却让人焦虑不已👀。担忧的两极分化阵营中,有人预言AI将引领我们步入一个科幻乌托邦,但也有人担心它会成为人类生存的潜在威胁🚀。让我们理性看待,共同探索这个技术的未来之路吧🌍!记得关注最新动态哦~📚💻

🌟🚀科技巨头呼吁暂停AI研发?!🔥čeek out为何这6月大转弯引发热议?💡面对马斯克及人工智能巨擘的紧急呼吁,科技行业的神经紧绷到极限——他们要求暂停先进AI系统的研发长达6个月!但这究竟是明智的警告还是过度担忧?🤔通常,创新的步伐无人能挡,尤其是AI领域。然而,这次高管们并非空穴来风,他们担心潜在的“黑箱”效应可能导致无法预见的风险。保障措施的缺失,就像自动驾驶汽车的安全带,一旦缺失可能致命。🛡️诚然,这样的暂停倡议前所未见,它挑战了科技界的常规与速度。但是否真的需要暂停创新以换取安全?或许,我们需要找到一个平衡点,让研发与监管并行不悖。🔍这场风暴引发了行业内外的深思:是时候重新审视AI伦理,确保技术的发展既能带来突破,又能保障人类福祉。🌈记得关注我们,获取更多关于这场辩论的深度解析和未来科技发展的洞察!👇#人工智能 #暂停研发 #科技伦理

🌟🚀科技巨头热议!🔥《巴伦》封面揭秘:AI现况与ChatGPT激辩的背后真相🔍💡 杨立昆,Meta AI巨擘,深入解析ChatGPT崛起的科技风暴,直面暂停AI研究的争议之声💥。🤔 人工智能,是未来还是挑战?META首席科学家以专业视角,带你洞见技术浪潮下的深层逻辑。🚀🤖 不要错过这场科技巨头与时代脉搏的深度对话,让我们一起探索科技无限可能!🌐✨ #MetaAI #ChatGPT #人工智能讨论

🌟💡 杨立昆,AI领域的领军人物,对ChatGPT等热门AI聊天机器人的过分吹嘘始终保持批判态度。🚀他坚信,尽管这些技术展现出惊人的潜力,但其基础能力的真相不容忽视。👩‍🏫让我们一起深入探讨,揭示技术的真实面貌。🌐

🌟🎨教授杨立昆,纽约大学的智慧引领者,2013年投身Meta(现Meta),深度学习领域的泰斗之一。他的创新研究,与杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(Yoshua Bengio)共同铸就了2018 ACM图灵奖的辉煌,这无疑是AI领域的诺贝尔奖,标志着深度学习技术已成为现代人工智能的核心支柱。三位巨擘并肩,被誉为“人工智能教父”,他们的贡献无人能及。以下是与这位学术巨星的一席对话摘录,让我们一同探索他的智慧之光。🌟

《巴伦周刊》:请解释一下 ChatGPT 和大型语言模型(LLM)背后的技术是如何工作的?

🌟🚀想象一下,一款全能的预测神器只需轻轻一触!🔍大型语言模型,背后的秘密在于海量词汇的深度学习——我们向它展示一小块词海,要求它精准预测下个词,如魔术般填入,再追问下一个词的谜底。🔥这不仅仅是一款键盘,更是未来的智慧引擎,引领文字游戏的新潮流!🏆SEO优化提示:使用关键词”超级预测键盘”, “大型语言模型”, “深度学习”, “词汇训练”, “未来智慧引擎”等,增加emoji符号如💡💡来提升可读性和吸引力。

《巴伦周刊》:这些模型擅长什么,又不擅长什么?

杨立昆:它们适用担任写作助手,可以帮助你用正确的语法风格来表述事情。但是对于回答事实类问题,它们干得并不是很好,因为这种模型要么是反刍存储在其记忆中的内容,要么是反刍一些类似于它在训练数据中读取的各种内容的组合或者插值,这意味着它可能会发生事实上的错误,或者它只是在编造一些听起来不错的东西。

《巴伦周刊》:为什么人工智能聊天机器人有时在准确性方面存在这么大的问题? 

杨立昆:当你拥有一个基本上是这样一个字一个字地预测的系统,你就很难进行控制或者操纵,因为它们会产生什么,完全取决于它们训练的统计数据和给定的提示。

在数学上来说,它很有可能与正确答案的路径呈现出指数性的偏离,它生成的答案越长,最终答案是彻头彻尾的垃圾的可能性就越大。

《巴伦周刊》:你为什么如此反对要求人工智能开发中止六个月的信?

杨立昆:我同意人工智能是一项强大的技术,必须负责任和安全地部署和开发。但我不认为停止研究和开发六个月是正确的答案。这根本无济于事,而且也非常天真,因为没有人会这么做。

让我们来看看在这封信上签名的人的类别。第一类是最令人震惊的: 真正的末日预言家。他们说我们正在制造的机器最终会像人类一样聪明。而一旦发生这种情况,人类就完了。 

我觉得这太愚蠢了。而且他们肯定搞错了。这是基于人工智能系统不易控制、很难提出符合人类价值观的目标的想法。但我们可以设计目标,以便它们能够正确行事。

第二类是担心直接伤害的人。有了大型语言模型,你可以产生无意义和错误的信息。一些人担心互联网将被机器生成的内容所淹没,这些内容具有误导性,用户可能会被洗脑。我也不相信这种情况,因为它已经存在了。人们的适应能力很强,他们已经学会了如何应对新媒体。

第三类是担心少数科技公司生产的人工智能产生的系统性社会影响。我还是不同意这种观点。部分原因是因为我为Meta工作,我能从内部看到科技公司的动机是什么。

《巴伦周刊》:OpenAI 的技术与 Google、Meta和其他初创企业的 AI 技术相比如何?

杨立昆:OpenAI 似乎有点走在了游戏的前面,因为他们比其他人更早地开始训练那些大型系统,并根据用户反馈进行微调的过程。但是 ChatGPT 或 GPT4并没有什么令人惊讶或者秘不可宣的地方,除了它们可以公之于众这一事实之外。

自然语言理解并不是一项新技术。这是相同的技术,transformer(机器学习模型)的整个想法来自谷歌。Meta、谷歌和一些初创公司的很多人已经开始研究这项技术,有成百上千的科学家和工程师知道如何搭建这些东西。

你之所以没有(更早)在谷歌和 Meta 上看到类似的系统,是因为对于一家大公司来说,推出一个不完全可靠、可以发布无稽之谈的系统,会对其声誉造成更大的危险。

《巴伦周刊》:当机器能够自己学习和思考时,我们是否已经接近通用人工智能(AGI)?

杨立昆:有人声称,通过扩展这些大型语言模型系统,我们将达到人类的智力水平。我的观点是这是完全错误的。有很多事情我们不明白,比如我们还不知道如何用机器进行再生产——有些人称之为 AGI的东西。

我们不能使用像 ChatGPT 或 GPT4这样的技术来训练机器人清理桌子或者填满洗碗机,即使这对一个孩子来说是一件微不足道的任务,我们还是做不到。我们仍然没有实现L5级(完全)自动驾驶。这需要一套完全不同的技能,你无法通过阅读文本来进行学习。

《巴伦周刊》:什么时候有可能?

杨立昆:未来五年,我们将取得重大进展。但我不认为我们能达到人类的智力水平,这还需要很长时间。每次出现这种预测时,我们都低估了人类智力的复杂性。

《巴伦周刊》:谢谢你的时间,杨。

ChatGPT何能何畏?对话科技教父,揭开大型语言模型的真相与未来

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

相关文章