阿尔特曼全球演讲引万人追捧,ChatGPT热下AI监管争议如何?”
🚀ChatGPT旋风席卷,OpenAI领头人🌟萨姆·阿尔特曼变身科技界焦点,他正以全球巡讲的形式,深入浅出地探讨AI的革新与适度监管的重要性。然而,一场关于未来路径的辩论悄然上演——部分人士对他所倡导的理念持有担忧。🌍
阿尔特曼在伦敦大学学院演讲
🌟周三的伦敦大学学院,一场科技盛宴吸引了无数目光!当阿尔特曼的演讲热度飙升时,985席位的地下礼堂前排成了一道壮观的长龙——从台阶到街道,再到城市的心脏地带,队伍蜿蜒曲折,仿佛一条知识的溪流。阳光下,人们聚精会神地讨论着OpenAI和ChatGPT的革命性体验,每一声交谈都洋溢着对未来创新的热情与好奇。📚🔍
在礼堂内,阿尔特曼受到了摇滚明星般的接待。演讲结束后,他被仰慕者团团围住,让他摆出自拍的姿势,并就创业公司建造“护城河”的最佳方式征求意见。“这正常吗?”一位难以置信的记者站在拥挤的人群里向一位OpenAI新闻人处理人员问道,回答是:“我们这次旅行所到之处几乎都是这样。”
阿尔特曼备受追捧
在伦敦,阿尔特曼重复着熟悉的观点,他指出人们担心AI的影响是正确的,但在他看来,AI的潜在好处要大得多。他再次对潜在监管表示欢迎,但仅限于正确的监管。他说,他希望看到“介于传统欧洲方法和传统美国方法之间的东西”。也就是说,有一些监管,但不要太多。他强调,太多的规定可能会损害小公司和开源运动。
🌟他深思熟虑道:”毋庸置疑,大多数人都会赞同,若真有人能突破科技瓶颈,创造出超越想象的智慧——无论其定义如何——全球规则的制定将是必然。这关乎我们对潜在威胁的严肃态度,就像对待核武器一样。我们必须确保对此问题的处理,如同对待核能一样谨慎与周全。”
遭到抗议
但是与此同时,礼堂外,六个举着标语的年轻人呼吁OpenAI放弃开发通用人工智能(AGI,达到人类大脑同等智慧)的努力。一名抗议者拿着扩音器指责阿尔特曼有一种弥赛亚情结,为了自我而冒着毁灭人类的风险。弥赛亚情结也叫救世主情结,通过拯救他人使自己获救,通过扮演一种救世主的角色来体会到自己的价值。
抗议者要求停止开发AGI
抗议者呼吁,OpenAI和像它这样的公司需要停止开发先进的AI系统,以免它们有机会伤害人类。
🌟【警惕潜在风险】💡一位热衷于太阳能地质工程的牛津学者,吉迪恩·富特曼(Gideon Futerman),以诚挚的声音表达着担忧——或许我们正面临一场骗局。虽然他祈祷事情并非如此,但他坚信任何与现有危害明确可见的技术相关的炒作都需要被严肃对待。无论如何,我们必须行动起来,防止可能发生的更大规模危险。如果阿尔特曼的构想成真,他正在研发的是通用人工智能,那将带来前所未有的挑战。🌍
OpenAI的批评者认为,这种关于监管超级智能(也被称为AGI)的言论是花言巧语,是阿尔特曼采用的一种方法,旨在转移人们对AI系统当前危害的注意力,让立法者和公众分心于科幻场景。
🌟【AI未来责任不应被忽视】🔍—萨拉·迈尔斯·韦斯特,AI Now研究所董事总经理,强调了对阿尔特曼观点的反思:我们不能将问责制束之高阁,而应聚焦当下AI系统带来的现实问题。👀从种族偏见的面部识别技术,到误导性的信息传播,这些已知风险不容忽视。她呼吁,我们的讨论应当直面这些问题,而非回避它们。🌍原文中提到的阿尔特曼观点,实际上是在提醒我们,未来的发展不应成为逃避责任的理由。然而,韦斯特的观点更进一步,主张我们应该立即行动,对AI当前的影响进行深入评估和纠正。📚种族歧视算法的潜在危害,以及信息失真的风险,都是我们需要正视并解决的挑战。社交媒体上的虚假信息泛滥,也是AI时代亟待解决的问题之一。👩💻通过这样的讨论,我们不仅能够推动技术进步,更能确保其发展符合伦理和社会价值。让我们一起,用问责制照亮AI前行的道路,而非让它成为未来的负担。🌱
要求OpenAI停止开发AGI的传单
🌟阿利斯泰尔·斯图尔特,伦敦大学学院政治学与伦理学硕士,对阿尔特曼的观点持有不同见解。他呼吁对AI系统进行“暂停”或“中止”的审视,这与AI专家和科技巨头如马斯克的立场相呼应。尽管他对阿尔特曼关于AI繁荣前景的设想并非全盘否定,但他强调当前的不确定性过于强烈,不能依赖于偶然。🚀
斯图尔特说,阿尔特曼在演讲完后出来和抗议者交谈,但这没能改变他的想法。他说,他们聊了大约一分钟,讨论了OpenAI的安全方法,包括同时开发AI系统及其护栏的能力。
“我聊完后比以前更担心了,”斯图尔特说,“我不知道他掌握了什么信息,让他认为这行得通。”凤凰网科技《AI前哨》对此将持续关注。(作者/箫雨)
更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!