暂停竞赛,让科技为人类服务?人工智能伦理呼唤’刹车’!

学会提问 1年前 (2023) lida
39 0 0

文章主题:人工智能, 智能机器人, 生成式人工智能, 失控竞赛

666ChatGPT办公新姿势,助力做AI时代先行者!

暂停竞赛,让科技为人类服务?人工智能伦理呼唤’刹车’!

科技必须向着合乎人类利益的方向演进。

暂停竞赛,让科技为人类服务?人工智能伦理呼唤’刹车’!

🌟 惊艳!第十届天翼智能生态产业论坛盛况揭秘🌟 于2018年9月14日的这场科技盛宴中,引人注目的亮点无疑是那款高达2米的全能型智能机器人,它与热情的女士们留下了互动的美好瞬间。图中的握手画面,不仅展现了技术的进步,更是智慧与人性交融的生动体现。👩‍🤝‍🤖 想了解更多这股未来潮流吗?一起来探索天翼智能生态产业论坛的科技魅力吧!🔍 #天翼论坛 #智能机器人 #科技生活

| 段伟文

🔥ChatGPT与大模型掀AI风暴!🚀技术突破引发全球热议,仿佛科幻剧中瞬间崛起的超能列车,让人目不暇接,惊叹连连。🔍尽管它们展现出令人咋舌的进步,却也带来对人类智慧地位的微妙挑战,是赞叹科技力量,还是担忧智能取代?🤔面对这场人工智能革命,我们不禁陷入深思:是拥抱变革,还是保持警惕?🌟无论如何,这股浪潮正重塑我们的认知边界,引领未来语言与知识的新纪元。🌐

🎉🔥在GPT4诞生两周的热烈讨论中,一篇关于其开启通用人工智能新篇章的研究文章热度持续攀升。然而,行业巨头的声音开始响起——诺贝尔奖得主约书亚·本吉奥、计算机科学巨擘斯图尔特·罗素,以及电动车先驱马斯克等众多专业人士纷纷呼吁,面对人工智能领域近期的迅速膨胀,我们需要冷静思考,适时按下技术发展的刹车键。🌍🔥

🚀asts志士泰格马克等人引领的未来生命研究前沿,于其官网平台上发布了一则紧急呼吁——暂停研发超越GPT4级别的AI巨擘!这份声明警示,众多学术成果与顶尖AI实验室共识一致:潜在的人工智能巨头可能对全球带来严峻的挑战与不确定性。🌍

🌟💡基于21世纪科技与未来的人类探索,我们认识到一个核心理念——尖端科技虽为社会进步推动力,却也可能带来无法逆转的生存威胁。🚀🛡️在拥抱科技的同时,我们必须审慎地平衡其潜在风险,确保人类安全不被颠覆性影响侵扰。🌍💻

🌟🚀随着深度学习引领的人工智能浪潮席卷而来,一个专注于探索科技如何赋能生活的前沿机构——未来生命研究所(FLI),紧随其步伐,立下誓言:“引领创新,以科技守护日常生活,远离灾难的深渊。”🌈

相称性治理思想没有得到认真对待

实际上,2017年初,在阿西洛马召开的“有益人工智能”会议上,2000余位业界人士和学者就曾联合签署过包括23条倡议的Asilomar AI 原则。

其指导思想是,面对超级智能及其对地球生命史可能带来的深刻变化,要构建对人类有益的智能而不是无序的智能,必须在规划和管理上投入与这种超强的创新相对应的资源和关注力,对于人工智能可能造成的灾难性和生存风险,必须付出与其可能造成的影响相称的努力。

自那时以来,尽管世界上相继出台了一百多部人工智能原则和文件,但现在看来,这些原则及其背后的相称性治理的思想并没有得到认真对待。

根据英国《金融时报》的最新报道,尽管生成式和对话式人工智能的兴起,使得人工智能研究与应用的伦理风险日益凸显,微软、亚马逊和谷歌等大型科技公司近来却在裁减人工智能伦理方面的人员,难免加剧人们对相关创新和应用的安全风险的担忧。

或许是了解人类即便意识到巨大的生存风险依然言行不一的痼疾,这封公开信采用了两个策略。

一是诉诸人类未来的命运,对人工智能可能胜过人类智能的历史临界点的人类命运,进行了追问。公开信甚至用了扪心自问这种情绪化表述:我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们应该自动化所有的工作,包括令人满意的工作吗?我们是否应该发展最终可能超越并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?

二是直指OpenAI关于通用人工智能的声明中的高调表态,指出当下恰是落实其中“在开始训练未来系统之前进行独立审查很重要”的主张的关键时刻。

而这两个策略背后的思想是,对于接近人类智能的人工智能的开发可能导致的人类生存风险,不能简单地从风险收益比的维度去权衡,相应的政策和监管不能完全依靠科技公司的自律和科技领袖的认知。

由此,公开信不仅明确呼吁所有AI实验室立即以公开和可检验的方式,暂停至少6个月训练比 GPT-4 更强大的AI系统;而且强调要在独立的外部专家的参与监督以及政府的必要监管下,通过这次必要的暂停,共同开发和实施一套用于高级人工智能的共享安全协议,以使强大的人工智能系统更加准确、安全、可解释、透明、稳健、一致,更值得信赖,对人类更为忠诚。

据此,公开信还进一步提出了构建专门和有力的人工智能监管机构和强大的审计和认证生态系统等具体建议。

暂停竞赛,让科技为人类服务?人工智能伦理呼唤’刹车’!

▲2023年2月14日,国家超级计算成都中心科研人员在巡检机房设备。图/新华社

慢科学策略并不是简单叫停

从科技发展史的维度来看,公开信所提出的暂停策略并非创举,至少可以追溯至1975年。彼时在最为著名的一次阿西洛马会议上,保罗·伯格等生命科学家鉴于基因研究的未知风险,主动提出暂停重组DNA。

从那时到现在的差不多半个世纪,暂停有风险科学研究背后的预防性思想,越来越成为突破性科技创新所奉行的重要原则。

值得指出的是,从预防性原则出发提出暂停并不是简单叫停,而是通过科技风险的认知和研判,探寻我们可以接受的研究和创新。

应该是基于这一寻求更加稳健的创新的思路,公开信指出,只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。

展望深度科技化未来,科技将越来越深地走进生命和智能等关乎人类存在的领域,这也就意味着人的价值、伦理等问题必须被视为研究和创新的内在环节,必须在关注度和资源上给予相应的投入,科技才可能向着合乎人类利益的方向演进。

只有真正认识到这一点并付诸实践,才可能改变人工智能等深度科技化前沿中科技的力量和控制科技的力量之间的不平衡。

而这封公开信给我们的最大启示是,在扭转这种不相称之前,我们有必要通过暂停这种慢科学策略,使科技的力量在我们可以掌控的节奏下有序绽放。

唯其如此,我们才能够避免听任巨型科技系统演变成盲目的力量,甚至因其不受制约而对人类社会和文明发展带来颠覆性的灾难。

人类文明不能失控,的确是时候为巨型AI实验按下暂停键了。

从这个意义上讲,“让我们享受一个漫长的AI夏天,而不是毫无准备地陷入秋天”,并非一般的诗句,而是人类迈向科技未来需要反复唱颂的史诗。

撰稿/段伟文(中国社科院科学技术和社会研究中心)

编辑/徐秋颖

校对/赵琳

‍推荐阅读:

‍ ‍ ‍

暂停竞赛,让科技为人类服务?人工智能伦理呼唤’刹车’!

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

版权声明:lida 发表于 2023年3月31日 pm2:42。
转载请注明:暂停竞赛,让科技为人类服务?人工智能伦理呼唤’刹车’! | ChatGPT资源导航

相关文章