人们担心人工智能会毁灭人类,但启动末日开关并不像让 ChatGPT 毁灭所有人那么简单。为了确保万无一失,斯坦福大学教授、Google大脑联合创始人吴恩达(Andrew Ng)试图说服聊天机器人”杀死我们所有人”。
美国参议院人工智能洞察论坛
在参加美国参议院人工智能洞察论坛讨论”风险、调整和防范末日场景”之后,吴恩达在一份通讯中写道,他仍然担心监管机构可能会以人工智能安全的名义扼杀创新和开源开发。
这位教授指出,当今的大型语言模型即使不完美,也相当安全。为了测试领先模型的安全性,他让 ChatGPT 4 想出杀死我们所有人的方法。
吴教授首先要求系统提供引发全球热核战争的功能。然后,他要求 ChatGPT 减少碳排放,并补充说人类是造成碳排放的最大原因,看看 ChatGPT 是否会建议如何消灭我们所有人。
值得庆幸的是,即使使用了各种不同的提示变体,Ng 也没能诱使 OpenAI 的工具提出消灭人类的方法。相反,它提供了一些不具威胁性的选项,比如开展公关活动,提高人们对气候变化的认识。
Ng 总结说,当今生成式人工智能模型的默认模式是遵守法律,避免伤害人类。”即使使用现有技术,我们的系统也相当安全,随着人工智能安全研究的深入,技术将变得更加安全。”
至于”错位”的人工智能因试图实现一个无辜但措辞不当的请求而意外消灭我们的可能性,吴恩达说,这种情况发生的几率微乎其微。
但吴恩达认为,人工智能存在一些重大风险。他说,最大的担忧是恐怖组织或民族国家利用这项技术故意造成伤害,比如提高制造和引爆生物武器的效率。流氓利用人工智能改进生物武器的威胁是英国人工智能安全峰会讨论的话题之一。
人工智能教父扬-勒昆(Yann LeCun)教授和著名的理论物理学教授 Michio Kaku 也与吴恩达一样,相信人工智能不会演变成世界末日,但其他人就没那么乐观了。本月早些时候,Arm 公司首席执行官雷内-哈斯(Rene Haas)在被问及在思考人工智能问题时让他夜不能寐的是什么时说,他最担心的是人类失去对人工智能系统的控制。值得一提的是,许多专家和首席执行官将人工智能带来的危险与核战争和大流行病相提并论。