AI智体的分级:从基于规则到基于LLM

摘要:

AI智体被定义为感知环境、做出决策和采取行动的人工实体。受SAE(汽车工程师学会)自动驾驶6个级别的启发,AI智体也根据效用和强度进行分类,分为以下几个级别:L0------无AI,有工具(有感知)加动作;L1------使用基于规则的人工智能;L2------基于规则的人工智能被基于IL/RL的人工智能取代,并进行额外的推理和决策;L3---基于L2,应用基于LLM的AI而不是基于IL/RL的AI,另外设置记忆和反思;L4------基于L3,促进自主学习和泛化;L5------在L4的基础上,附加个性(情感+性格)和协作行为(多智体)。

1 引言

任何能够感知环境并执行动作的实体都可以被视为智体。智体可以分为五种类型:简单反射智体、基于模型的反射智体、基于目标的智体、基于效用的智体和学习智体[1]。

随着人工智能的发展,"智体"一词被用来描述表现出智能行为并拥有自主性、反应性、主动性和社交互动等能力的实体。20世纪50年代,艾伦·图灵提出了著名的图灵测试[2]。它是人工智能的基石,旨在探索机器是否能够表现出与人类相媲美的智能行为。这些人工智能实体通常被称为"智体",建立人工智能系统的基本构建块。

基础模型 [3] 在 NLP 中已经最为牢固。在技术层面上,基础模型是通过迁移学习和规模化来实现的。迁移学习的想法是将从一项任务中学到的"知识"应用到另一项任务中。基础模型通常遵循这样的范式:模型在代理任务上进行预训练,然后通过微调适应感兴趣的下游任务。

最近出现的大多数大规模语言模型(LLM)[4]都属于或基于基础模型。由于其最近展现出的卓越能力,LLM被认为是人工智能对通用人工智能(AGI)的潜在渗透,为构建通用人工智能智体带来了希望。

AI智体主要指能够使用传感器感知周围环境、做出决策并使用执行器采取行动的人工实体[5]。根据 World Scope (WS) [6] 的概念,通过涵盖从 NLP 到通用 AI 的 5 个级别(即语料库、互联网、感知、具身和社交)来审核 NLP 的进展,纯基于LLM的智体是仅建立在书面互联网世界的第二层上。

除此之外,LLM在知识捕获、指令解释、泛化、规划和推理方面证明了卓越的能力,同时展示了与人类的自然语言交互。从这个状态来看,LLM辅助智体具有扩大的感知空间和行动空间,有潜力达到WS的第三和第四级,即分别为感知人工智能和具身人工智能。

此外,这些基于LLM的智体可以通过协作或博弈来处理更困难的任务,并且可以发现社会现象,实现WS的第五层,即社交世界。

在第2节中,简要回顾了LLM;第 3 节详细阐述了各种人工智能智体;第 4 节中分析和定义了 AI 智体的级别;最后一节给出结论。

2 LLM

LLM [4] 是基于 Transformer 的语言模型的一类,其特点是具有大量参数,通常数量达到数千亿甚至更多。这些模型在大量文本数据集上进行训练,使它们能够理解自然语言并主要通过文本生成和理解来执行各种复杂的任务。一些著名的LLM示例包括 GPT-3/4、PaLM、Claude1/2/3、OPT 和 LLaMA1/2/3。

广泛的研究表明,扩展可以很大程度上提高LLM的模型能力。因此,建立一种定量方法来表征规模化效应是有用的。Transformer 语言模型有两种具有代表性的规模化法则:一种来自 OpenAI[7],另一种来自 Google DeepMind[8]。

"预训练+微调"过程被另一个称为"预训练+提示+预测"的过程所取代[9]。在这种范式中,下游任务不是通过目标工程使预训练的 LM 适应下游任务,而是重新制定下游任务,使其看起来更像在文本提示的帮助下在原始 LM 训练期间解决的任务。

这样,通过选择适当的提示,可以操纵模型行为,以便预训练的 LM 本身可以用于预测所需的输出,有时甚至不需要任何额外的特定任务训练。提示工程 [10] 的工作原理是找到最合适的提示,让 LM 解决手头的任务。

LLM的涌现能力是其区别于小型语言模型的最重要特征之一。具体来说,上下文学习(ICL)[11]、指令遵循[12]和思维链推理(CoT)[13]是LLM三种典型的涌现能力。

参数高效微调(PEFT)[14] 是一项关键技术,用于使预训练语言模型(LLM)适应专门的下游应用程序。PEFT 可分为基于添加、基于选择/规范或基于重参数化的方法。它只需要微调一小部分参数,方便边缘设备,并且可以有效缓解灾难性遗忘问题。

由于LLM经过训练来捕获预训练语料库的数据特征(包括高质量和低质量数据),因此它们很可能会产生对人类有毒、有偏见甚至有害的内容。有必要使LLM与人类价值观保持一致,例如乐于助人、诚实和无害。来自人类反馈的强化学习(RLHF)[15]已成为微调LLM系统以更紧密地符合人类偏好的关键策略。

受LLM潜力的启发,人们提出了多模态大语言模型(MLLM)[16],将LLM扩展到多模态领域,即感知图像/视频输入,并与用户进行多轮对话。而视觉-语言模型经过大量图像/视频文本对的预训练,只能处理图像级任务,例如图像字幕和问题回答。

多模态 LLM 以强大的预训练 LLM 权重为基础,旨在处理文本以外的多种类型输入。多模态LLM已广泛应用于各种任务,例如图像理解、视频理解、医学诊断和具身人工智能等。

人们认为LLM拥有类人的智能和常识,可以保留更接近通用人工智能(AGI)领域的潜力。LLM的出现可能是,知识驱动智体感知环境并积累知识的里程碑[17-27]。

3 AI智体

AI智体能够根据其训练和输入数据来理解、预测和响应。虽然这些功能得到了开发和改进,但重要的是,要了解它们的局限性以及它们所训练的基础数据的影响。AI智体系统有一些能力:1)感知和预测建模。2)规划和决策。3)自我学习、持续改进;4)执行与交互;5)个人化和协作。

具身智能/人工智能的目标是构建智体,例如机器人,它们学习解决需要智体与环境之间交互的任务。

对于AI智体来说,学习动作(例如强化学习)的有效方法是通过与环境的交互来进行试错体验。在物理环境中进行训练通常是不可行的,因此使用模拟器来学习策略是一种常见的方法。

符号人工智能[17-18]应用逻辑规则和符号表示来封装知识并促进推理过程,其中关键问题是转换和表示/推理。一个典型的例子是基于知识的专家系统。象征性主体面临着不确定性和大规模问题的局限性。它们主要依赖于固定的算法或规则集,在它们专门设计的任务中表现良好。然而,在面对 OOD(分布外)任务时,他们往往很难进行泛化和推理。

基于强化学习的智体[19-24]通过与环境的交互进行基于累积奖励的学习来训练,以处理更困难的任务。一个例子是带有 Q-learning的 AlphaGo。尽管如此,强化学习的问题是训练时间长、样本效率低和稳定性问题,尤其是在现实环境中。

知识智体可以隐式或显式地利用知识。LLM通常封装隐性知识,而显性知识则被结构化和查询以生成响应。隐性知识和显性知识的结合使AI智体能够像人类智能一样根据上下文应用知识。

基于LLM的智体[25-35]采用LLM作为大脑或控制器的主要组成部分,并通过多模态感知和工具利用等策略扩展其感知和行动空间。他们可以通过思维链 (CoT) 和任务分解等技术实现推理和规划能力。

LLM给人工智能智体设计带来了重大变化。这些LLM智体不仅精通自然语言的理解和生成,而且还擅长泛化。这种能力可以轻松地与各种工具集成,从而增强其多功能性。另一方面,LLM的涌现能力显示出推理方面的优势。

具有预训练知识的LLM智体即使没有接受特定任务的训练,也很容易制定决策策略。另一方面,强化学习智体通常需要在未见过的情况下从头开始训练,利用交互来学习。

基于LLM的智体可以彼此交互,从而引发社会现象的出现。在基于LLM的多智体系统(MAS)中,智体参与协作、竞争或分层平台来执行任务。这些任务可以从搜索和优化、决策、资源分配到协作控制开始。

智体之间的关系决定了智体之间的交互和合作状态。情感推理和同理心是智体在许多人机交互中的重要技能。

4 AI智体的分级

基于能力的宽度(泛化)和深度(性能),[28]给出了对 AGI 进行分类的矩阵方法,如下表 1 所示。

性能评估在给定任务中 AGI 与人类水平性能的比较情况。 泛化性衡量人工智能达到目标性能阈值的任务范围。 性能和/或泛化性水平之间的进展速率可以是非线性的。

个人 LLM 智体 [35] 所需的功能需要不同类型的功能。受SAE(汽车工程师学会)给出的自动驾驶六级的启发,个人LLM智体的智能等级分为L1至L5共5个级别。每个级别的关键特征和代表性用例列于下表2中。

4.1 工具(包括感知 + 动作)

各种外部工具支持智体更丰富的动作能力,包括API、知识库、视觉编码模型和语言模型,使智体能够适应环境变化,提供交互和反馈,甚至影响环境。该工具的执行可以反映智体的复杂需求并增强其决策的可信度。

动作模块的目标是将智体的决策转化为具体的结果。它与环境交互并获取反馈,决定智体实现任务的有效性。人类对环境反馈的有效性可以使智体验证其行动结果。

动作可以有感知模块、低级运动规划器和控制器,特别是在机器人和自动驾驶领域。特别是,感知模块,就像人类的感觉系统,即眼睛和耳朵一样,感知环境的变化,然后将多模态信息转换为智体的统一表示。

如果智体配备了记忆模块,回忆可以作为一种行动策略,使智体能够根据存储在记忆模块中的经验做出决策。

智体可以利用多轮来确定适当的响应作为操作,特别是用于对话目的的聊天智体。

动作的后果可能包括环境的变化、内部智体状态的变化、新动作的启动以及对人与智体交互场景中人类感知的影响。

4.2 推理和决策

推理对于人类智能至关重要,是解决问题、决策或规划以及批判性分析的基础。演绎、归纳和溯因是推理的主要形式。

传统的推理主要依赖于符号方法或基于模仿/强化学习的方法。但据观察,这些方法有几个缺点。符号方法需要将自然语言描述的问题转化为规则,这可能需要人工帮助。大多数情况下,这种类型的方法对错误很敏感。模仿学习(IL)和强化学习(RL)方法通常与深度神经模型结合,作为策略网络、价值函数或奖励模型。虽然 RL 方法需要大量样本(与环境的交互),但 IL 算法很难处理看不见的场景。

对于基于 LLM 的智体来说,就像人类一样,推理对于解决复杂任务至关重要。它们可能在预训练或微调期间具有推理能力,或者在达到一定规模后出现。

思维链(CoT)是LLM推理中的代表方法,通过提示中的少量语言示例逐步解决复杂的推理问题。通过将复杂的任务分解为可执行的子任务,LLM制定规划和决策的能力得到显着提高。

CoT 的扩展包括思维树 (ToT) 和思维图 (GoT),假设人类倾向于以树状或图状方式思考。多路径思想进一步使智体能够解决更复杂的规划任务。

推理是通过规划或决策进行的。规划模块使基于 LLM 的智体能够在有或没有反馈的情况下推理和规划解决任务。与调用 Dijkstra 和 POMDP 等规划方法来获得环境中最佳动作和规划的传统智体不同,基于 RL 的智体需要学习策略。基于LLM的智体从LLM中认识到他们的规划能力。此外,LLM在意图理解和其他方面显示出巨大的潜力。

基于LLM的智体可能无法通过提示获得正确的知识,甚至面临幻觉问题。专业工具使LLM能够提高他们的专业知识并适应领域知识。基于LLM智体的决策过程缺乏透明度,在高风险领域可靠性较差。此外,LLM不能容忍对抗性攻击。

定制预训练模型的威力,只需少量数据进行微调,LLM 就可以在下游任务中表现出更强的性能。基于LLM的智体不仅仅充当固定知识库,而是展示了稳健适应新任务的学习能力。经过指令调整的 LLM 无需微调即可实现零样本泛化。LLM可以按照指令执行训练阶段未发生的新任务。

少样本上下文学习(ICL)通过将原始输入与少量样本相结合作为增强上下文的提示,从而提升了LLM的预测性能。

为了模拟人类在反馈体验方面的能力,可以设计规划模块来接收来自环境、人类和模型的反馈,从而提高基于LLM智体的规划能力。外部反馈作为规划成功或失败的直接评价,构建闭环规划。

4.3 记忆和反思

记忆模块在人工智能智体中起着至关重要的作用。它存储从环境感知中提取的信息,并应用存储的记忆来促进未来的行动。记忆模块可以帮助智体积累经验、自我学习,并以更合理、更有效的方式行动。

短期记忆以符号形式保存相关信息,保证其在决策过程中的可访问性。长期记忆积累早期决策过程的经验,包括历史事件流、用户和智体之间的交互信息或智体经验的其他形成。

反思模块旨在使智体能够压缩和导出更高级的信息,或自主检验和验证其行为。它帮助智体解释属性、偏好、目标和联系,进而监督他们的行为。其表现形式有多种:(1)自我总结。(2)自我验证。(3)自我纠错。(4)同理心。

智体在LLM的协助下,利用内部反馈机制,通常会从现有模型中获得见解,以完善和增强规划方法。他们可以从真实或虚拟环境中获得反馈,例如任务完成或行动响应的线索,帮助他们修改和完善策略。

4.4 泛化和自主学习

少样本上下文学习(ICL)通过将原始输入与多个样本连接起来作为提示,使上下文变得更强,从而提高了LLM的预测,其关键思想类似于人类的学习过程。

指令微调的LLM展示了零样本泛化,无需对特定任务进行微调。提示对于合理的预测至关重要,直接根据提示进行训练可以增强模型对未见过任务的鲁棒性。通过扩大模型大小和训练指令的多样性可以进一步提高泛化水平。

智体需要将用户在上下文中学到的工具使用技能推广到新情况,例如将在雅虎搜索上训练的模型转移到谷歌搜索上。

如果给出指令和演示,基于 LLM 智体还能够通过生成可执行程序、将当前工具集成到更强大的工具中来构建工具,或者它们可以学习执行自我调试。

PaLM-E 显示了对新目标或现有目标组合的零样本或单样本泛化能力。Voyager利用技能库组件不断收集新的自我验证技能,支持AI智体的终身学习能力。

基于LLM的智体利用LLM的规划能力,结合现有技能,通过持续学习(例如课程学习)来应对更复杂的挑战,以应对灾难性遗忘等挑战。

4.5 个性(情感+性格)+协作行为(多智体)

正如人类个性通过社会化产生一样,智体也通过与他人和环境的互动来表现出一种个性形式。人格的定义涉及三个特征:认知、情感和性格。

认知能力通常被定义为获取知识的心理过程,例如决策或规划以及解决问题。情绪包括主观情绪,例如愤怒或喜悦。基于LLM的智体包括对情绪的详细理解。

人格的狭义概念属于性格模式。LLM的提示工程涉及字符模式或其他属性的浓缩摘要。通过接触个性丰富的数据集,基于LLM的智体具备个性描绘。

在社交环境中,AI智体应该与其他代理智体甚至人类合作或竞争,以提高性能。AI智体可能会被提供复杂的协作任务或交互环境。

集体智慧是一个将意见集中到决策中的过程。它来自于智体之间的协作和竞争,出现在基于共识的决策模式中。通过利用智体社会内的通信,可以模拟人类社会的进化并获得洞察力。

4.6 AI智体分级

基于以上阐述,给出一个AI智体分级如下表3所示:

5 结论

在本文中,AI智体的级别根据效用和强度进行分类,类似于 SAE 的自动驾驶自动化级别。对于每个级别,对上一个级别的附加模块可以提供更强大的AI功能和智体能力。从L0到L3,AI核的发展是从无AI,发展到基于规则的AI,基于IL/RL的AI,再到基于LLM的AI。L4和L5则是提供更多的AI功能。

参考文献

[1] S J Russell and P Norvig. Artificial Intelligence: A Modern Approach (4th Edition). Pearson Education, 2010.

[2] Turing, A. M. Computing machinery and intelligence. Springer, 2009.

[3] R Bommasani et al., On the Opportunities and Risks of Foundation Models, arXiv 2108.07258, 2021

[4] W X Zhao, K Zhou, J Li, et al., A Survey of Large Language Models, arXiv 2303.18223, 2023

[5] Wooldridge, M. J., N. R. Jennings. Intelligent agents: theory and practice. Knowl. Eng. Rev., 10(2):115--152, 1995.

[6] Bisk, Y., A. Holtzman, J. Thomason, et al. Experience grounds language, arXiv 2004.10151, 2020.

[7] J Kaplan et al., Scaling Laws for Neural Language Models, arXiv 2001.08361, 2020

[8] J Hoffmann et al., Training Compute-Optimal Large Language Model (scaling law), arXiv 2203.15556, 2022

[9] P Liu et al., Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing, ACM Computing Surveys, 55(9), Jan., 2023

[10] B Chen, Z Zhang, N Langrene, S Zhu, Unleashing the potential of prompt engineering in Large Language Models: a comprehensive review, arXiv 2310.14735, 2023

[11] Q Dong et al., A Survey on In-context Learning, arXiv 2301.00234, 2023

[12] S Zhang et al., Instruction Tuning for Large Language Models: A Survey , arXiv 2308.10792, 2023

[13] Z Chu et al., A Survey of Chain of Thought Reasoning: Advances, Frontiers and Future, arXiv 2309.15402, 2023

[14] V Lialin, V Deshpande, A Rumshisky, Scaling Down to Scale Up: A Guide to Parameter-Efficient Fine-Tuning, arXiv 2303.15647, 2023

[15] T Shen et al., Large Language Model Alignment: A Survey, arXiv 2309.15025, 2023

[16] C Li et al., Multimodal Foundation Models: From Specialists to General-Purpose Assistants (review), arXiv 2309.10020, 2023

[17] Newell, A., H. A. Simon. Computer science as empirical inquiry: Symbols and search. Commun. ACM, 19(3):113--126, 1976

[18] Wilkins, D. E. Practical planning - extending the classical AI planning paradigm. Morgan Kaufmann series in representation and reasoning. Morgan Kaufmann, 1988

[19] Ribeiro, C. Reinforcement learning agents. Artificial intelligence review, 17:223--250, 2002

[20] Li, Y. Deep reinforcement learning: An overview. arXiv 1701.07274, 2017

[21] Silver, D., A. Huang, C. J. Maddison, et al. Mastering the game of GO with deep neural networks and tree search. Nature, 529(7587): 484--489, 2016

[22] Mnih, V., K. Kavukcuoglu, D. Silver, et al. Playing Atari with deep reinforcement learning. arXiv 1312.5602, 2013

[23] Zhu, Z., K. Lin, J. Zhou. Transfer learning in deep reinforcement learning: A survey. arXiv 2009.07888, 2020

[24] Vanschoren, J. Meta-learning: A survey. arXiv 1810.03548, 2018

[25] L Wang et al., A Survey on Large Language Model based Autonomous Agents, arXiv 2308.11432, 2023

[26] Z Xi, W Chen, X Guo, et al., The Rise and Potential of Large Language Model Based Agents: A Survey, arXiv 2309.07864, 2023

[27] P Zhao, Z Jin, N Cheng, An In-depth Survey of Large Language Model-based Artificial Intelligence Agents, arXiv2309.14365, 2023

[28] M R Morris, J Sohl-dickstein, N Fiedel, et al., Levels of AGI: Operationalizing Progress on the Path to AGI, arXiv 2311.02462, 2023

[29] Z Zhang, Y Yao, A Zhang, et al., Igniting Language Intelligence: The Hitchhiker's Guide From Chain-of-Thought Reasoning to Language Agents, arXiv 2311.11797, 2023

[30] X Li, Y Bai, P Chai et al., Towards Knowledge-driven Autonomous Driving, arXiv 2312.04316, 2023

[31] C Gao, X Lan, N Li, et al., Large Language Models Empowered Agent-based Modeling and Simulation: A Survey and Perspectives, arXiv 2312.11970, 2023

[32] K Yang, J Liu, J Wu, et al., If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code Empowers Large Language Models to Serve as Intelligent Agents, arXiv 2401.00812, 2024

[33] Y Cheng, C Zhang, Z Zhang, et al., Exploring large language model based intelligent agents: definitions, methods, and prospects, arXiv 2401.03428, 2024

[34] Z Durante, Q Huang, N Wake, et al., Agent AI: surveying the horizons of multimodal interaction, arXiv 2401.03568, 2024

[35] Y Li, H Wen, W Wang, et al., Personal LLM agents: insights and survey about the capability, efficiency and security, arXiv, 2401.05459, 2024

相关推荐
wx7408513266 分钟前
小琳AI课堂:机器学习
人工智能·机器学习
FL162386312913 分钟前
[数据集][目标检测]车油口挡板开关闭合检测数据集VOC+YOLO格式138张2类别
人工智能·yolo·目标检测
YesPMP平台官方16 分钟前
AI+教育|拥抱AI智能科技,让课堂更生动高效
人工智能·科技·ai·数据分析·软件开发·教育
FL162386312941 分钟前
AI健身体能测试之基于paddlehub实现引体向上计数个数统计
人工智能
黑客-雨44 分钟前
构建你的AI职业生涯:从基础知识到专业实践的路线图
人工智能·产品经理·ai大模型·ai产品经理·大模型学习·大模型入门·大模型教程
子午1 小时前
动物识别系统Python+卷积神经网络算法+TensorFlow+人工智能+图像识别+计算机毕业设计项目
人工智能·python·cnn
大耳朵爱学习1 小时前
掌握Transformer之注意力为什么有效
人工智能·深度学习·自然语言处理·大模型·llm·transformer·大语言模型
TAICHIFEI1 小时前
目标检测-数据集
人工智能·目标检测·目标跟踪
qq_15321452641 小时前
【2023工业异常检测文献】SimpleNet
图像处理·人工智能·深度学习·神经网络·机器学习·计算机视觉·视觉检测
洛阳泰山1 小时前
如何使用Chainlit让所有网站快速嵌入一个AI聊天助手Copilot
人工智能·ai·llm·copilot·网站·chainlit·copliot