ChatGPT-4的未来潜力:强大的神经网络、未竟的推理梦与无限可能性?
文章主题:
🌟【深度解析】ChatGPT4:未来智能新标杆?🔥于3月23日凌晨的科技盛宴中,GPU巨擘英伟达掌门人黄仁勋与AI领域的先驱者伊尔亚·苏茨克维携手,对ChatGPT的革新进行了深入剖析。这款备受瞩目的ChatGPT-4,以其神经网络技术的显著升级,展现出强大的逻辑推理能力,仿佛拥有了预见未来的超凡智慧。然而,正如苏茨克维所揭示,尽管ChatGPT-4已迈出了坚实的一步,其目前的推理精准度仍待突破。若能如他所说,通过扩大数据集这一关键环节,保持商业运营模式的稳健,ChatGPT-4的潜力将被进一步释放,引领智能新潮流。让我们期待ChatGPT-4如何在数据与技术的双重驱动下,逐步完善并超越自我,成为人工智能领域的又一里程碑。🚀#ChatGPT4 #神经网络 #未来预测 #AI发展
黄仁勋认为,ChatGPT是AI界的“iPhone时刻”,但这一时刻的到来并非一蹴而就。
以下为中国电子报记者整理的本次对话内容精华:
黄仁勋:近期,ChatGPT的热潮让AI获得了全世界的关注,OpenAI作为研发者备受行业关注。为什么会决定聚焦AI深度学习领域?
伊尔亚·苏茨克维:人工智能通过不断的深度学习,给世界带来了巨大的改变。对于个人而言,主要体现在两方面:
🌟人工智能领域的探索始于我们对世界无尽的好奇——那些深藏在直觉中的理解和解决问题的独特方式。💡探讨大脑如何构建预知,以及意识与经历的精妙定义,一直是我的热情所在。🔍这些复杂的议题不仅挑战我们的认知边界,也激发了对技术未来可能性的深度思考。🌱
🌟在2002-03年的求学路上,我曾坚信教育的奥秘唯有人类能独占鳌头,机器的智慧尚处于摸索阶段。然而,一念之间,一个创新的火花照亮了我前行的道路——倘若赋予计算机自我学习的能力,那将对AI世界开启前所未有的革新篇章。🎓
作为一名专注于AI神经网络的专家,我对这项技术的发展深感着迷。神经网络作为AI的核心驱动力,其在深度学习中的应用无疑是科技进步的一大亮点。我们热衷于探索如何让这些网络仿照人类大脑的智慧运作,以及如何将数据处理的强大功能融入计算逻辑中。虽然当时对于未来的走势充满不确定性,但基于对行业的洞察,我坚信这个领域的前景光明且充满无限可能。🚀
黄仁勋:你曾说过,GPU将会影响接下来几代人的生活,GPU可能会对深度学习的培训带来帮助。你是在何时意识到这一点的?
伊尔亚·苏茨克维:我们在多伦多实验室中,第一次尝试使用了GPU来培训深度学习,当时并不清楚如何使用GPU,以及如何让GPU获得真正的关注。但随着我们获得的数据集越来越多,我们也越来越清楚,这将会为传统模型带来的优势。我们希望能够加速数据处理的过程,培训出过去科学家从来没有培训过的内容。GPU的使用,给我们带来了一个转变性的革命,让我们能不断地去培训神经网络,训练神经网络的图像处理能力。
黄仁勋:ChatGPT和OpenAI是否已经打破了过去计算机编辑图像的模式?
伊尔亚·苏茨克维:我认为不是打破了计算机图像的编辑,而是用另外一种处理方式。大部分人都是用传统的思维模式去处理数据集,但我们的处理方式更先进,是“超越式”的。曾经,我们也认为这是一件艰难的事情,甚至觉得几乎不可能完成,但如果我们能做好,就是让人类生活有了一大进步。
黄仁勋:担任Open AI的首席科学家,你认为最重要的工作是什么?我觉得Open AI在不同的时间点,关注焦点并不相同。我认为ChatGPT是“AI界的iPhone时刻”,你是如何实现这样的跨时代转变的?
伊尔亚·苏茨克维:最开始,我们也不太清楚如何开展整个项目,而且,我们现在所得出的结论,和当时使用的逻辑完全不同。无法想象现在的用户已经有这么好用的ChatGPT工具,来帮助大家创造出非常好的艺术效果和文本效果。但在2015年、2016年时,我们还不敢想象能达到当下的程度。
🌟原想法大揭秘:💡2016年,我怀揣着一个革命性的愿景——推动机器实现无监督学习的突破。虽然今天这看似寻常,得益于自然语言模型的强大,但彼时,它还是个遥不可及的梦想。无人探索过,没有科研先例,那是个技术上的棘手难题。我坚信数据压缩是关键,却未曾料到ChatGPT以其创新,悄然打破了僵局。🔍探索之路曲折:我们顶着压力,一步步前行。尽管面临挑战,但ChatGPT的出现确实启发了我们,它证明了数据集可以被高效地“压缩”,为我们的数学模型找到了新路径。最终,通过不懈的努力和数学的力量,我们成功地减少了训练数据量。🏆技术迭代见证:时间见证了我们的成长与突破,从那时起,机器学习的进步就像一场接力赛,ChatGPT只是其中的精彩一棒。让我们期待未来,那些未竟的梦想将在更多创新中变为现实。记得关注哦!🔍
🌟通过训练神经网络来预测未来字符,我相信这与我们视觉中枢的复杂网络紧密相连,验证过程亦证实了这一假设。换句话说,ChatGPT背后的智能在于它能揭示数据间的内在逻辑,而这正是通过预测下一字符实现的洞察。这项技术目标的重要性不容忽视,因为它为我们挖掘现有信息的新路径提供了可能。🚀
黄仁勋:扩大数据规模能够提高AI的表现能力,更多的数据、更大的数据集能够帮助生成式AI获得更好的结果。你觉得GPT-1、GPT-2、GPT-3的演变过程,是否符合这样的“摩尔定律”?
伊尔亚·苏茨克维:OpenAI的目标之一,是解决扩大数据集的问题。刚开始面临的问题,是如何提升数据的高精准度。因此,我们在做Open AI项目时,通过让它做一些策略性的游戏,来提升精准度,比如,竞争性的体育游戏,训练它必须足够快、足够聪明,还要和其它队竞赛。作为一个AI模型,它需要不断重复基于人类反馈的强化学习过程。
我们的工作原理,就是通过不断培训神经网络体系,让神经网络去预测下一个单词。预测的单词和过去的单词之间,能够达成一定的逻辑上的一致。从神经网络来看,它更像是根据方方面面来得出一个结论。但我们的模型还没有达到这样的效果。人类的反馈很重要,越多的反馈能使AI更可靠。
黄仁勋:你可以让AI做一些事情,但是你能不能让AI不做一些事情?如何让AI知道自己的界限在哪里?
伊尔亚·苏茨克维:可以实现。未来,第二阶段的培训序列,就是和AI、神经网络去进行交流,我们对AI训练得越多,AI的精准度越高,就会越来越符合我们的意图。我们不断地提高AI的忠诚度和准确度,它就会变得越来越可靠、越来越精准,而且越来越符合人类社会的逻辑。
黄仁勋:相比较于以前的版本,GPT-4有怎样的升级?未来在哪些方面、哪些领域有更多的升级?
伊尔亚·苏茨克维:GPT-4基于ChatGPT的性能,做了很多改善。对GPT-4的训练大概是6~8个月之前开始,GPT-4和之前GPT版本最重要的区别,是GPT-4有更强大的神经网络预测功能,能够更精确的去预测下一个单词是什么,意味着能够对人们说的话有更精准的理解。
这与人们此前常说的直觉有很大不同,GPT-4采用的是推理能力。比如,在一篇推理小说中,小说中有各种不同的人物和情节,有密室、有谜团,人们在读推理小说的过程中,完全不清楚接下来会发生什么。但是能通过小说中不同的人物和情节,来预测结局。GPT-4也是如此,能够像推理小说一样预测结果。
黄仁勋:语言模型是如何学习到推理和逻辑的?GPT-4现在有哪些缺陷,在接下来的版本中将进一步完善?
伊尔亚·苏茨克维:想清楚定义逻辑和推理并不容易,但是未来可通过将逻辑和推理定义的更精准,来获得更确切的答案。
神经网络是有一些缺陷,用神经网络去打破之前固有的思维模式,那么就需要考虑这个神经网络能够走多远的问题
神经网络依旧面料一些挑战,比如,让神经网络去打破固有的思维模式,但这也就意味着人们要思考神经网络到底能走多远,也就是神经网络到底有多大潜力。目前GPT-4的推理能力确实还没有达到预期的水平,未来希望GPT-4的推理和逻辑能够达到更高的水平。但未来如果能更进一步的扩大数据库,保持过去的商业运转模型,未来推理的能力会进一步提高,对此也很有信心。
黄仁勋:ChatGPT是否有一种自然属性,能够不断地去理解新内容?
伊尔亚·苏茨克维:是的,神经网络确实有这些能力,但是有时候也并不准确,这也是神经网络接下来面临的最大挑战。在很多情况下,神经网络会出现很多奇怪的错误,甚至出一些人类根本不会犯的错误。针对这些“不可靠性”,需要进一步针对神经网络来进行研究,从而未来能够给人们一个更精准的结果,甚至能够纠正一些错误,让神经网络变得更可靠。
现在GPT-4的模型已经被公开发布了,它其实没有追踪数据模型的能力,它的能力是基于文本去预测下一个单词,根据数据调节来得出结果,所以是有局限性的。有人认为,可以让GPT-4去找出某些数据的来源,然后会对数据来源做更深入地调查,来不断提升能力。
总体而言,尽管GPT-4并不支持内部的数据收集,但它肯定会在持续的数据挖掘之中变得更加精准。GPT-4甚至已经能够从图片中进行学习,并且根据图片和内容的输入进行反馈。
黄仁勋:多模态学习如何能够加深GPT-4的理解能力?为什么多模态学习定义了GPT和OpenAI?
伊尔亚·苏茨克维:多模态学习可以从两个维度来看:
第一,多模态在视觉和图像识别上特别有帮助。因为整个世界是由图片形成的,人们和其他动物都是视觉动物,人脑1/3的灰质都是用来处理图像的,GPT-4也能够去理解这些图像。
第二,随着人们对于世界的认知不断加深,通过图片或文字对世界的理解是一样的。对于一个人而言,一个人可能一生之中只会说10亿个词。这通过计算人一生有多少时间,以及一秒能处理多少词,再减去睡觉的时间,就能算出一生处理了多少单词。人和神经网络的不同之处在于,人如果10亿个词汇无法理解,可以用其他万亿级的词汇来理解。对于AI神经网络而言,可以通过文本,将人们对于世界的知识和信息慢慢渗透给AI的神经网络。外加视觉图片等其他元素,神经网络可以更精准地进行学习。
黄仁勋:对于文本和图片方面的深度学习,如果我们想要人工智能去理解其背后的逻辑,甚至是理解这个世界的基本原理——比如我们人类日常的表达方式,一个词其实有两种含义,声音的高低变化,其实都代表着两种不同的语气。说话的语言和语调的变化,对AI去理解文本是否有一定帮助呢?
伊尔亚·苏茨克维:是的,这类场景非常重要。对于语音和语调,包括声音的大小和语气,对于AI而言都是非常重要的信息来源,提供了领域中重要的解读信息的方式。
黄仁勋:请总结一下AI正处于怎样的发展阶段?以及在不远的将来,生成式AI能够达到怎样的高度?大语言模型的未来是什么?
伊尔亚·苏茨克维:预测未来比较困难的。目前能做的,是把现有的事情继续做下去,让人们看到GPT更惊艳的系统版。未来,希望通过提高数据的可靠度,让系统更进一步获得人们的信任。目前,生成式AI在解读这个文本过程中,还无法完全验证文本的真实性以及信息来源。对于未来的展望,是让神经网络必须要确认所有数据来源的真实性,准确地服务人们每一步的需求。
黄仁勋:在第一次使用ChatGPT-4时,有哪些性能让你觉得很惊艳和震惊?
伊尔亚·苏茨克维:我认为AI本身存在的意义,是可以给人类带来帮助。之前的ChatGPT版本,神经网络只会回答问题,甚至有时候会误解问题,在回答方面很不理想。但是GPT-4基本没有误解问题的情况,甚至能够去处理更复杂的任务。简而言之,它的可靠性更好。例如,GPT-4能够写诗,可以写押头韵的诗,也能写押尾韵的诗。甚至它能去理解笑话,能明白笑话背后的意思。
作者丨许子皓 沈丛
编辑丨陈炳欣
视频丨沈丛
美编丨马利亚
监制丨赵晨
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!