从人工智能角度揭示ChatGPT的弊端:机械化的全面复制与自欺现象的泛滥

文章主题:复旦大学, 庆祝建校118周年, 学术报告, 徐英瑾

666ChatGPT办公新姿势,助力做AI时代先行者!

最近,复旦大学在其118周年校庆期间举办了一系列学术报告活动。其中,复旦大学哲学学院的徐英瑾教授以“从人工智能哲学的角度看ChatGPT”为主题,进行了深入探讨。徐教授从哲学的角度剖析了ChatGPT技术的主要缺陷,即过度依赖机械化的方式,全面模仿他人的意见,这无疑会加剧人类的自我欺骗现象。

从人工智能角度揭示ChatGPT的弊端:机械化的全面复制与自欺现象的泛滥
图为徐英瑾。复旦大学供图

徐英瑾教授是一位杰出的学者,担任中国知识论专业委员会副秘书长和中国现代外国哲学专业委员会理事等多个重要职务。他领导并完成了多项国家级和省部级科研项目,其中包括国家社科项目“基于信息技术哲学的当代认识论研究”。他的研究领域主要集中在人工智能哲学和英美分析哲学领域,为这两个领域做出了重大贡献。

理解ChatGPT的本质并非易事。徐英瑾解释道,ChatGPT的全称是Chat Generative Pre-trained Transformer,其中”Chat”这个词汇在人工智能领域具有特殊的意义。它源于图灵测试中的一种技术,即早期的”聊天盒(chatbox)”技术。作为一种大型语言模型,ChatGPT是”传统神经元网络技术和深度学习技术的升级版”。简单来说,它是通过构建一个数学模型来模拟一个人工神经元网络的结构。

ChatGPT 的语言流畅度和机器翻译的水准确实让人印象深刻,然而,徐英瑾却指出,这种进步并非是人工智能本身的特有属性,而是源于统计学的不断迭代和大规模数据集的训练。换句话说,虽然 ChatGPT 可以识别出“路遥知马力”和“日久见人心”这样的诗句,但它却无法真正理解其中蕴含的深层含义。这是因为它的训练过程过于粗暴,只是简单地投入大量数据和语料库,而没有对这些数据进行深入的理解和分析。

从海德格尔哲学的观点审视,当前人工智能系统的训练模式必将导致“常人”观点的制度化和机械化。徐英瑾指出,从机械视角出发,一个被视为正确的意见便是得到大众认可的观点。因此,极少数“异类”提出的与众不同的观念在技术层面上很可能会被筛选出去。

如果ChatGPT技术在托勒密时代就已经存在,那么哥白尼的“日心说”很可能会被永远视为错误。这是因为,当时的科学家们还没有意识到这种技术的强大威力,所以无法对其进行准确的评估和判断。然而,随着科技的不断发展,我们对于人工智能的理解和应用也越来越深入。因此,我们需要保持高度警惕,并正确地对待这种技术的出现和发展。

而由于人工智能训练与当下总是存在时间差,“无法面对未来”是ChatGPT这类人工智能的最大瓶颈所在。徐英瑾表示,过度依赖ChatGPT,可能会让人丧失反思力与对未来的把握能力,陷入过度“自欺”的状态。

人工智能未来到底走向何处?在他看来,要想真正走通人工智能道路,需要在结合节俭性算法与推理引擎的基础上,兼顾哲学思维带来的“破”与“立”,“大数据的训练很难让机器对语境形成精准识别,如何突破语料的伪装,真正识别人类的精神内核,人工智能仍在路上。”

来源:中国青年报客户端

从人工智能角度揭示ChatGPT的弊端:机械化的全面复制与自欺现象的泛滥

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

相关文章