ChatGPT与国家安全:大语言模型的战略影响

ChatGPT与Excel 1年前 (2023) lida
45 0 0

文章主题:ChatGPT, 国家安全, 大型语言模型, 美国国家安全

666ChatGPT办公新姿势,助力做AI时代先行者!

ChatGPT与国家安全

ChatGPT与国家安全

ChatGPT风靡全球。自2022年11月发布以来,OpenAI的聊天机器人在SAT考试中取得了1020高分,通过了医疗执照考试,成功地降低了用户的有线电视费用,甚至起草了如何监管AI的立法。从课堂到播客再到餐桌,甚至名人云集的电视节目,它一直是热门话题。

大型语言模型将如何影响美国国家安全?

ChatGPT的的影响力正在席卷全球。自2022年11月首次亮相以来,OpenAI的聊天机器人已经展现出了惊人的能力。它在SAT考试中取得了令人瞩目的1020分,成功通过了医疗执照考试,还帮助用户节省了有线电视费用,甚至拟写了关于人工智能监管的立法建议。无论是在课堂上、播客中,还是在餐桌上,甚至是名人密集的电视节目中,ChatGPT都成为了热门的焦点。

ChatGPT 和大语言模型(Large Language Models, LLMs)对教育和劳动力等领域的影响已经成为热门话题。然而,在这个“ChatGPT时刻”以及更广泛的应用场景下,这些技术对美国国家安全又意味着什么呢?这是一个值得我们深入探讨的问题。

在战略领域,各国都在积极寻求运用AI技术以获取经济、军事和国家安全上的优势地位。正如OpenAI的CEO Sam Altman在2021年国家AI安全委员会(NSCAI)全球新兴技术峰会上所提到的:“将会出现许多全球性的努力来打造这些强大的人工智能系统。要达到我们期望的成果,即与自由民主制度相符的AI,我们需要与盟友共同努力,首先建立这些系统。”

在本篇文章的后续部分,我们将深入探讨LLMs的战略思考,首先对我们在AI领域取得的最新成果进行全面评估,接着分析LLMs对国防部、情报部门以及更广泛的美国家安全机构的实际影响。最后,我们将总结一系列对决策者至关重要的考量,以期为读者呈现一个全面且深入的视角。

AI进步的“ChatGPT时刻”

ChatGPT并非突然出现,而是人工智能技术快速发展的一个重要数据点。在过去的几年中,我们看到了自然语言处理(NLP)和机器学习(ML)等技术的飞速进步,这些技术是推动人工智能整体进步的关键力量。到了2020年,OpenAI发布了GPT-3,而在2022年底,他们又推出了ChatGPT。在这段时间里,基于开源LLMs的生态系统已经发展壮大,包括了来自全球各地的十几个实体。这些实体不仅发布了基于LLMs的模型,还开发了针对特定需求的工具。

ChatGPT与国家安全:大语言模型的战略影响

LLMs生态系统中的参与者

今天推动LLMs向前发展的许多主要参与者都是美国公司。但是,中国的实体和公司,以及英国、以色列、韩国等国家的组织,也成为了重要的参与者。虽然美国私营部门具有竞争优势,但中国决心在AI领域超越美国,在各个领域争夺领导地位,包括算力、算法、数据、应用程序、集成和人才。中国也是LLMs的快速追随者,百度将在3月份发布自己的类ChatGPT的聊天机器人。

更重要的是, 我们可以预期AI生态系统将进一步扩展,因为训练AI模型的障碍(如成本)会随着“无代码AI”等新技术的出现而减少。美国必须为世界上越来越多的参与者,从国家到公司再到个人,做好准备,以便能够为各种目的创建和利用定制算法。

事实上,LLMs(大型语言模型)等工具正在日益实用且易于应用。据悉,ChatGPT在短短两个月内便实现了月活跃用户突破1亿的惊人成绩,而TikTok则花费了九个月时间才达到此里程碑。谷歌公司亦宣布将不久后推出自家的聊天模型Bard,该模型基于其内部的LaMDA模型构建。如同众多其他机构一样,SCSP也在近期利用LLMs协助生成相关内容。在我国首份报告《国家竞争力的中期挑战》中,我们尝试了三种LLM:OpenAI的GPT-3、Hugging Face的BLOOM以及Anthropic开发的模型,并向它们请教了报告试图解决的核心问题(总体而言,LLMs的回答显得合理)。此外,我们也运用LLM撰写了本文的前身,即2022年全球新兴技术峰会的邀请函,由Anthropic LLM(与Anthropic联合创始人Jack Clark一同)解答观众现场提问。

原内容表达了一种观点,即LLMs不仅能够讨论国家安全状况,而且已经开始影响它的形成。接下来,原内容列举了一些美国国家安全企业中LLM的可能应用场景。然而,为了满足您的要求,我们需要以更为专业和严谨的态度来表述这一主题。LLMs不仅具备分析国家安全形势的能力,实际上它们已经参与到 shaping its formation 的过程之中。以下是一些美国国家安全领域的 LLM 潜在应用示例。

美国国家安全企业的机会

LLMs作为“智能化intelligentized”工具的接口:类似于ChatGPT的LLMs可以成为人类访问各种AI工具的接口,包括计算机视觉和机器人技术。在癌症筛查等任务中,人机团队(Human-machine teams,HMT)已经证明比单独使用人类或AI模型更有效。在国家安全背景下,此类智能化工具可以通过AI生成的预测洞察力改变指标和警告格局,启用半自主系统,例如使用LLMs来训练有用的机器人并与之交互,以及支持从物流和供应链管理到出口管制申请审查的任务。

LLM和情报:ChatGPT和其他新兴技术有能力在所有情报学科(INT)和情报周期的各个阶段,以及在战争的各个层面为军队建立一个更强大、更快的情报社区。使用ML模型的HMT功能已经证明能够通过过滤大量数据和标记重要信息来提高情报处理和分析的效率,并使分析师能够专注于更深入的分析。LLMs还可以通过帮助生成估计分析草稿、准确翻译外文等来提高生产力。特别是对于开源情报(OSINT),具有外部搜索能力和专家知情培训数据的LLMs将增强我们的收集和分析能力。可以为对开源情报中心的需求和情报目的训练和开发这些工具。

决策支持:决策优势将归于领导人最有能力利用AI模型作为决策支持工具的国家。通过将AI、数据、建模和仿真功能以及预测洞察力正确组合,模型将能够制定出各种政策选项,并向人类决策者提供分析。最近的成就,例如AI模型在战略游戏“强权外交Diplomacy”中的表现优于人类,其中涉及与对手互动和讨价还价,以及在战争游戏中展示了这一技术向量的相当大的进步,即使还有更多的工作要做。LLMs在做出操作决策的半自治系统中应扮演的角色有明显的局限性。然而,这些“专家”可能是房间里的另一个声音,提供关于政策或战争选择的实时、数据知情的观点。

其他重要的国家安全考虑

信息格局:ChatGPT增加了NSCAI最终报告第1章中描述的风险,即在我们制定适当的对策之前,我们的对手转动了启用AI的信息操作的表盘。诸如ChatGPT之类的LLMs可用于以速度和规模生成独特的文本,从而避开现有的过滤系统。也许最重要的是,尽管这些技术能力在ChatGPT之前就已经存在,但随着公众的关注,更多人可能会质疑他们在社交媒体等上阅读的内容是否由AI生成。我们可能确实正在进入一个我们消费的大部分内容都是AI生成的世界,为国家和非国家行为者创造新的载体来塑造信息格局。令人欣慰的是,最近合成内容检测功能的激增,包括OpenAI发布的文本分类器和C2PA的规范标准,提高了国家安全专业人员和知情公民等人将拥有可用于帮助识别合成媒体的工具的前景。

数据和训练是基础:LLMs近年来取得了长足的进步,但它们不是神谕。它们最终只能与训练它们的数据一样好,并且可以产生没有事实依据的“幻觉”信息。它们的使用总是会带来相关的风险,人类必须仔细考虑。尽管如此,LLMs将继续激增,因为国家、公司和其他参与者推动了最先进的技术水平,并且人们将ChatGPT等工具集成到他们的日常生活中。任何拥有全球技术野心的国家都不会在生态系统向前发展时转身离开。

AI对抗AI:随着AI功能被整合到国家安全设备中,我们的LLMs可能会与我们的对手进行测试,无论是在特定情况下还是为了整体信息优势。美国将需要利用私营部门的竞争优势来确保我们的LLMs是世界上最好的。此外,我们需要确保美国军方和情报界的AI工具在适当情况下能够与我们的盟友和合作伙伴的AI工具进行互操作。

黑匣子问题:随着我们越来越依赖AI系统,我们需要一种方法来解释和理解它们。“注意力建模attention modeling”和“思维链推理chain-of-thought reasoning”方面的进步是有前途的,但我们仍然无法“查询”AI应用程序以“讨论”其思维过程。这一领域的突破将使人类用户能够理解AI系统做出特定决定的原因,从而有助于建立对AI系统的信任。

网络安全和代码:LLMs将通过代码生成在基础计算机科学层面影响国家安全,对国家安全机构、企业和消费者产生影响。Copilot是针对代码生成进行微调的GPT-3版本,已经大大提高了编码准确性和生产率。类似的技术开始用于检测和防止零日攻击,并且通常可以帮助强化代码。LLMs还将为网络安全创造新的风险载体,例如降低恶意网络参与者的进入门槛。这些风险将使大规模部署有助于确保我们的网络系统安全的AI工具变得更加重要。

跟上技术的发展速度:无论是制定AI法规还是将AI能力整合到人类劳动力中,政府都将努力跟上技术快速发展的步伐。例如,欧盟委员会正在努力解决欧盟即将出台的AI法案将如何处理ChatGPT等系统的问题,这凸显了设置适用于最新功能的治理模型的难度。同样,工具和技术的快速变化可能会导致政府部门和机构采取保守的态度并继续使用时已经过时的系统。唯一的前进方向是让采购流程和治理框架等变得足够灵活,以便它们能够跟上AI的步伐。

总结而言,无论是领导者和组织是否倾向于迎接“ChatGPT时代”,LLMs和AI都将广泛地改变国家安全架构。目前,美国在LLMs研发领域拥有关键的竞争优势。然而,这种长期的优势将随着采用这些工具的普及而逐渐形成。对于那些无法适应和跟不上的人来说,这可能会带来风险。

免责声明:本文转自中国指挥与控制学会,原作者AerospaceDefense。 文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!

转自丨中国指挥与控制学会

作者丨AerospaceDefense

研究所简介

国际技术经济研究所(IITE),成立于1985年的11月,作为一家非营利性研究机构,其核心职责在于深入探讨我国经济及科技社会发展的重大政策性、战略性和前瞻性问题。同时,它也积极追踪并分析全球科技和经济发展的最新动态,并向中央及相关部门提供决策咨询意见。值得一提的是,“全球技术地图”便是该研究所的官方微信公众号,它的存在使得公众可以轻松获取到最新的技术资讯和科技创新见解。

地址:北京市海淀区小南庄20号楼A座

微信:iite_er返回搜狐,查看更多

责任编辑:

ChatGPT与国家安全:大语言模型的战略影响

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

版权声明:lida 发表于 2023年12月23日 am10:53。
转载请注明:ChatGPT与国家安全:大语言模型的战略影响 | ChatGPT资源导航

相关文章