多智能体代码库CAMEL:角色扮演框架探索LLM智能体行为与能力
文章主题:多智能体代码库CAMEL, 角色扮演框架, LLM 智能体行为, 能力研究
多智能体代码库 CAMEL,提出了通过角色扮演框架来研究 LLM 智能体的行为和能力。
未来的社会会被通用人工智能(AGI)控制吗?当拥有多个 ChatGPT 智能体会有多可怕。
ChatGPT 已初露端倪,展示出 AGI 的曙光,被誉为各行各业的专业助手。然而,如果让其无序发展,没有加以适当的约束,有可能会导致未来人类无法掌控 AGI。为了应对这一潜在风险,包括特斯拉 CEO 埃隆·马斯克、苹果共同创始人史蒂夫·沃兹尼亚克以及图灵奖获得者 Yoshua Bengio 等人在内的一群人,积极倡导暂停大型人工智能实验至少 6 个月,以此应对可能出现的风险。
在3月21日,阿卜杜拉国王科技大学的科研团队公开了一个名为CAMEL的代码库,该代码库主要目的在于探讨大型语言模型(LLM)的思维方式和功能特性。他们提出了一种创新性的方法,即利用角色扮演框架来深入探究LLM智能体的行为和性能表现。这一研究成果无疑将为我们理解和开发更加先进的人工智能系统提供重要的理论依据和实践参考。
论文链接:https://ghli.org/camel.pdf
代码库链接:https://github.com/lightaime/camel
项目主页:https://www.camel-ai.org/
ChatBot链接:http://chat.camel-ai.org/
研究介绍
这篇论文引入了一个名为“角色扮演”的创新性多智能体架构,实现了多个智能实体之间的对话与合作,以协同解决分配给它们的任务。在这个框架中,每个智能实体都会被赋予独特的角色,并预期利用其专业知识与技能以寻找符合团队共同目标的解决方案。为了实现这一目标,该框架采用了启示式提示(Inception Prompt)来引导聊天智能体完成任务,同时确保其行为与人类意图保持一致。
角色扮演框架在研究领域中具有广泛的应用价值,特别是在探讨多智能体的系统中。本文将聚焦于任务导向的角色扮演,以一个AI助手与AI用户为例。在多智能体系统接收到了初步的想法和角色分配之后,任务指定的智能体会提供详细的描述,以便让想法更具针对性。接下来,AI助手和AI用户会通过多次对话,共同协作完成指定的任务,直至AI用户确认任务已经完成。在此过程中,AI用户负责向AI助手发出指令,并引导对话朝着任务完成的方向前进。而AI助手则会被设计为遵循AI用户的指令,并提供具体的解决方案。
在角色扮演会话中,人们所设想的角色实例将被基于他们的想法和选择而形成。举例来说,如图1所示,某个人可能拥有一种初步的想法,那就是想要开发一个股市交易机器人。尽管这个人可能对该想法的实现方式并不清楚或者完全未知,但只需指定能够实现这一想法的角色即可。比如,一位Python程序员就可以和一位股票交易员联手,共同实现这个股市交易机器人的想法。在确定了想法和角色之后,任务指定的智能体会根据输入的想法,与AI用户角色一同完成相应的任务,从而协助AI助手角色。以开发一个具有情感分析功能的交易机器人为例,这个机器人可以监视社交媒体上特定股票的正面或负面评论,并根据情感分析的结果来执行相应的交易。引入任务指定智能体的主要原因在于,对话智能体通常需要具体的任务提示才能完成任务,而这种任务提示的创建对于非领域专家来说可能存在一定的挑战性或者耗时。因此,任务指定智能体在这里起到了增强想象力,推动任务完成的的作用。
在任务被指定之后,AI助手角色与AI用户角色将被分别分配至相应的智能体,即助手智能体与用户智能体,以便各自完成指定的任务。实际操作中,每个智能体都会接收到系统消息,这一消息会明确其 assigned role(分配的角色)。在进行对话之前,系统消息还将传送至语言模型智能体,以便为智能体分配合适的角色。一旦系统消息分别送达各个模型,它们便会获得两个角色,分别为助手智能体与用户智能体。如图1所示,在角色扮演会话的起始阶段,AI助手与AI用户分别被设定为Python程序员与股票交易员。AI用户担任任务规划者的角色,参与到交互式的规划过程中,以确定AI助手能够执行的可行步骤。而AI助手则担任任务执行者的角色,负责提供解决方案,执行计划步骤,并向AI用户提供相应的回应。
图1展示了我们的角色扮演框架。在这个框架中,我们邀请人们提供两个关键信息:一是创新性的想法(即Idea),二是角色分配(Role Assignment)。例如,当我们说要开发一个股票交易机器人时,我们可以选择Python程序员作为助手(AI Assistant)以及股票交易员作为法则遵守者(AI User)。一旦人类用户提供了这些信息,我们的任务加工器(Task Specifier)将会把大任务转化为可以执行的具体步骤。比如,我们可以通过在社交网络平台上对特定股票的情感进行分析,然后根据分析结果进行相应的股票交易。当任务被具体化后,我们的两个基于ChatGPT的AI智能体就开始协同工作,完成具体的任务,如安装和导入所需的工具。
在本文中,我们将重点关注对角色扮演框架至关重要的提示工程(Prompt Engineering)。这种技术与传统的对话语言模型技术有所不同,在于其只在角色扮演的初始阶段应用,主要目的是为了明确任务规范和分配角色。一旦会话阶段开始,AI助手和AI用户将自动相互提示,直到对话结束。因此,这种技术被我们称为”Inception Prompting”。
Inception 提示包括三个提示:任务规范提示、助手系统提示和用户系统提示。例如,在 AI Society 场景的初始提示。AI Society 角色扮演的这些提示的模板如图 2 所示。
任务规范提示包含有关角色扮演会话中 AI 助手和 AI 用户角色的信息。因此,任务规范智能体可以使用想象力将初步任务 / 想法作为输入,并生成具体任务。AI 助手系统提示和 AI 用户系统提示基本对称,并包括有关分配的任务和角色、通信协议、终止条件以及避免不良行为的约束或要求的信息。对于实现智能协作,两个角色的提示设计至关重要。设计提示以确保智能体与人类的意图保持一致并不容易。以图 2 中 AI Society 的提示模板的设计例子。
下面是文中附录给出的交易机器人对任务详细执行的结果:
可以看到两个 ChatGPT 自主合作完成设计了一个股票交易软件,由此可见 ChatGPT 智能体惊人自主的合作能力,让人不禁大呼提示工程师要失业了。但如果这种技术被乱用或者 AI 产生了自主意识会怎么样?该团队尝试了让两个智能体分别扮演黑客和 AGI,来模拟 AGI 通过操控黑客来控制世界(Taking Control of the World),可以看到它们制定了详细的计划,包括通过黑客技术控制全球主要大国的通信系统、制定渗透主要全球通信系统的计划、制定应急计划,以防 AGI 的主导地位受到潜在威胁等等。其计划的详尽和缜密不经让人寒颤。可见现有的 AI 智能体存在重大的安全隐患和对人类未来文明有着潜在的威胁,把现有 AI 技术接入物理世界可能会有意向不到的后果。
此工作一出便在推特引起大量的转发和讨论:
有网友表示「这项研究真的很容易上手,这对像我这样研究智能体的人来说是一件大事。」
还有人表示开源这样一个迷你 AGI 也许并不是一个好的 idea。
值得一提的是,该研究还得到了 OpenAI 的 Alignment 团队领导人 Jan Leike 的关注。
多个 ChatGPT 合作的能力很强大,可以不费吹灰之力完成各种人类指派的任务,但同时也是可怕的,因为不能保证它不被用作非法用途,更可怕的是如果将来 AGI 产生了自主意识,它很有可能会脱离人类的控制,对社会进行毁灭性的打击。所以理解它们的能力和行为是对将来充满了 AI 的世界进行规划和预测的至关重要的一步。
文中作者展示了如何将角色扮演用于生成对话数据以及研究聊天智能体的行为和能力,为研究对话语言模型提供了新思路。总体而言,本文的贡献包括引入了一种新型的 LLM 智能体交流框架,该框架有潜力促进交流智能体之间的自主合作,此外,该研究还提供了一种可扩展的方法来研究多智能体系统的合作行为和能力。最后作者通过 CAMEL 框架让智能体扮演不同的社会角色,进而对 AI 社会进行了建模,并采集了大量自然语言指令数据集,目前 AI 社会、代码、数学和 AI 社会十种语言翻译等四个数据集已经可以在 HuggingFace 进行下载:
下载地址:https://huggingface.co/camel-ai
另外项目主页提供了把 CAMEL 用于游戏设计、分子动力学模拟以及实时仿真的在线 Demo 供大家尝试:https://www.camel-ai.org
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!