🎉【震撼科技盛宴】🌟2018年9月14日,第十届天翼智能生态产业高峰会在璀璨的灯光下盛大启幕!💡现场,一款高约2米的未来战士般的智能机器人引起了全场瞩目,它的存在仿佛为会场增添了超凡科技气息。👩💼一位勇敢的女士,毫不犹豫地走向它,与这位高科技代表握手互动,瞬间点亮了全场的热情火花。📸 IC photo捕捉到了这一温馨而激动人心的画面,展现了人机和谐共处的美好愿景。这场论坛不仅汇聚了行业精英,更展示了前沿技术如何引领变革,让人们对智能生活的未来充满期待。🌍欲了解更多详情,敬请关注天翼智能生态产业的最新动态,让我们共同见证科技的力量如何塑造未来!🌐#天翼峰会 #智能机器人 #人机互动
🔥ChatGPT与大模型刷屏,AI巨轮震撼眼球!🚀技术飞跃让人目不暇接,却也带来情感漩涡:是惊叹科技进步,还是担忧智慧逼近?🤔面对这股知识浪潮,我们不禁陷入深思——如何在创新与伦理间找到平衡。🌍未来已来,拥抱智能的同时,不忘人性温度。👩💻📚
🎉🔥在GPT4诞生两周的热烈讨论中,一篇关于其开启通用人工智能新篇章的研究文章热度持续攀升。然而,尽管技术进步令人惊叹,业界领袖如图灵奖得主约书亚·本吉奥、计算机科学巨擘斯图尔特·罗素及特斯拉创始人马斯克等纷纷发声,呼吁对AI领域的狂飙突进进行冷静审视。🚀🔥面对人工智能领域近期的快速膨胀,一场关于巨型AI研究是否该暂停的辩论悄然升温。数千名行业专家正以实际行动,为未来的可持续发展按下必要的刹车键。🌍💡
🚀asts志士泰格马克等人引领的未来生命研究前沿,于其官网平台上发布了一则振聋发聩的呼吁——暂停研发超越GPT4级别的AI巨擘!他们严谨指出,众多科研实证与顶尖AI实验室的共识不容忽视:潜在的人工智能巨头,可能对全球社会架构及人类文明带来前所未有的挑战。🛡️
🌟💡21世纪以来,科技与未来的核心观念引导我们认识到一个严峻事实:尖端科技虽为社会发展推动力,却也可能带来毁灭性的生存威胁。🚀🛡️人类在享受科技带来的便利的同时,必须对潜在的、无法逆转的风险保持审慎态度,确保科技进步与社会稳定之间的微妙平衡。🌍💻
🌟🚀随着深度学习引领的人工智能浪潮席卷而来,一个专注于探索科技如何赋能生活的前沿机构——未来生命研究所(FLI),紧随其步伐,立下誓言:“引领创新,以科技守护日常生活,远离灾难的深渊。”🌈
相称性治理思想没有得到认真对待
实际上,2017年初,在阿西洛马召开的“有益人工智能”会议上,2000余位业界人士和学者就曾联合签署过包括23条倡议的Asilomar AI 原则。
其指导思想是,面对超级智能及其对地球生命史可能带来的深刻变化,要构建对人类有益的智能而不是无序的智能,必须在规划和管理上投入与这种超强的创新相对应的资源和关注力,对于人工智能可能造成的灾难性和生存风险,必须付出与其可能造成的影响相称的努力。
自那时以来,尽管世界上相继出台了一百多部人工智能原则和文件,但现在看来,这些原则及其背后的相称性治理的思想并没有得到认真对待。
根据英国《金融时报》的最新报道,尽管生成式和对话式人工智能的兴起,使得人工智能研究与应用的伦理风险日益凸显,微软、亚马逊和谷歌等大型科技公司近来却在裁减人工智能伦理方面的人员,难免加剧人们对相关创新和应用的安全风险的担忧。
或许是了解人类即便意识到巨大的生存风险依然言行不一的痼疾,这封公开信采用了两个策略。
一是诉诸人类未来的命运,对人工智能可能胜过人类智能的历史临界点的人类命运,进行了追问。公开信甚至用了扪心自问这种情绪化表述:我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们应该自动化所有的工作,包括令人满意的工作吗?我们是否应该发展最终可能超越并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?
二是直指OpenAI关于通用人工智能的声明中的高调表态,指出当下恰是落实其中“在开始训练未来系统之前进行独立审查很重要”的主张的关键时刻。
而这两个策略背后的思想是,对于接近人类智能的人工智能的开发可能导致的人类生存风险,不能简单地从风险收益比的维度去权衡,相应的政策和监管不能完全依靠科技公司的自律和科技领袖的认知。
由此,公开信不仅明确呼吁所有AI实验室立即以公开和可检验的方式,暂停至少6个月训练比 GPT-4 更强大的AI系统;而且强调要在独立的外部专家的参与监督以及政府的必要监管下,通过这次必要的暂停,共同开发和实施一套用于高级人工智能的共享安全协议,以使强大的人工智能系统更加准确、安全、可解释、透明、稳健、一致,更值得信赖,对人类更为忠诚。
据此,公开信还进一步提出了构建专门和有力的人工智能监管机构和强大的审计和认证生态系统等具体建议。
2023年2月14日,国家超级计算成都中心科研人员在巡检机房设备。图/新华社
慢科学策略并不是简单叫停
从科技发展史的维度来看,公开信所提出的暂停策略并非创举,至少可以追溯至1975年。彼时在最为著名的一次阿西洛马会议上,保罗·伯格等生命科学家鉴于基因研究的未知风险,主动提出暂停重组DNA。
从那时到现在的差不多半个世纪,暂停有风险科学研究背后的预防性思想,越来越成为突破性科技创新所奉行的重要原则。
值得指出的是,从预防性原则出发提出暂停并不是简单叫停,而是通过科技风险的认知和研判,探寻我们可以接受的研究和创新。
应该是基于这一寻求更加稳健的创新的思路,公开信指出,只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。
展望深度科技化未来,科技将越来越深地走进生命和智能等关乎人类存在的领域,这也就意味着人的价值、伦理等问题必须被视为研究和创新的内在环节,必须在关注度和资源上给予相应的投入,科技才可能向着合乎人类利益的方向演进。
只有真正认识到这一点并付诸实践,才可能改变人工智能等深度科技化前沿中科技的力量和控制科技的力量之间的不平衡。
而这封公开信给我们的最大启示是,在扭转这种不相称之前,我们有必要通过暂停这种慢科学策略,使科技的力量在我们可以掌控的节奏下有序绽放。
唯其如此,我们才能够避免听任巨型科技系统演变成盲目的力量,甚至因其不受制约而对人类社会和文明发展带来颠覆性的灾难。
人类文明不能失控,的确是时候为巨型AI实验按下暂停键了。
从这个意义上讲,“让我们享受一个漫长的AI夏天,而不是毫无准备地陷入秋天”,并非一般的诗句,而是人类迈向科技未来需要反复唱颂的史诗。
撰稿/段伟文(中国社科院科学技术和社会研究中心)
编辑/徐秋颖
校对/赵琳
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!