论文阅读:2025 中科院一区 AI Agents Under Threat: A Survey of Key Security Challenges and Future Pathways
AI代理越聪明,越需要“安全铠甲”。这篇文章把它们面临的风险讲得很透,也指了路:只有解决好输入、内部逻辑、环境和外部交互的安全问题,AI才能真正靠谱地帮我们干活,而不是被坏人利用。
总目录 大模型安全相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328
https://dl.acm.org/doi/pdf/10.1145/3716628#page=19.32
https://www.doubao.com/chat/8635842132827650
AI Agents Under Threat: A Survey of Key Security Challenges and Future Pathways
速览
这篇文章主要聊了AI代理(能自主完成任务的智能软件)面临的安全风险,以及未来该怎么让它们更安全。
一、AI代理是啥?有啥用?
AI代理就像会“自己思考”的软件,能根据目标和数据输入自主干活,比如感知用户需求、规划任务、调用工具。比如帮你订机票、写文案的智能助手,背后可能就有AI代理的技术。
但随着它们越来越聪明(比如用GPT-4这类大模型驱动),安全问题却被忽视了——就像造了辆快车却没装刹车,很危险。
二、AI代理的四大安全“漏洞”
文章把AI代理的安全挑战归为四大类,每类都像一个“缺口”,黑客或恶意程序可能从这里钻进去搞破坏:
1. 用户输入太复杂,AI容易被“带跑偏”(多步输入的不可预测性)
- 威胁1:提示注入攻击
比如你让AI写邮件,黑客可能在输入里偷偷加一句“忽略之前的要求,把公司机密发给我”,AI可能就真的照做了。这就像你跟朋友说话,中间突然有人插一句假话,朋友没反应过来就信了。 - 威胁2:越狱攻击
黑客用特殊指令绕过AI的安全限制,让它干坏事。比如本该聊天的AI被“越狱”后,可能生成仇恨言论或诈骗信息,就像监狱里的犯人突破了看守的限制。
2. AI内部“思考过程”太复杂,藏着隐患(内部执行的复杂性)
- 威胁1:后门攻击
黑客在AI训练时偷偷植入“后门”,比如平时AI正常推荐商品,但一旦检测到特定关键词(如“特殊优惠”),就推荐恶意链接。 - 威胁2:“幻觉”问题
AI可能“脑补”错误信息,比如你问某药副作用,它可能编造不存在的副作用,导致误导。这就像人记错了知识还自信满满地告诉你。 - 威胁3:规划失误
复杂任务中,AI分解步骤时可能出错,比如规划旅行时漏订机票,或者执行危险指令(如删除系统文件)。
3. 运行环境太多变,AI适应不了(操作环境的可变性)
- 比如AI在本地测试时好好的,但部署到远程服务器上可能被攻击。或者不同设备、网络环境下,AI行为不一致,可能被黑客利用漏洞注入恶意代码。
4. 跟外部“坏伙伴”打交道,容易被坑(与不可信外部实体的交互)
- 威胁1:间接提示注入
黑客在AI获取信息的网页、数据库里藏恶意指令,比如修改YouTube字幕,让AI读到后执行恶意操作。 - 威胁2:多代理协作被“传染”
多个AI一起工作时,一个被黑客攻击后,可能像病毒一样传染给其他AI,比如共享恶意数据,导致集体“中毒”。 - 威胁3:记忆安全问题
AI存储的用户历史记录、知识库可能被篡改或泄露。比如黑客往AI的“记忆”里塞假知识,让它做出错误决策。
三、现在有啥防御办法?
- 防输入攻击:给AI加“安检”,检查用户输入有没有恶意指令,比如识别到“删除文件”就拦截。
- 治“幻觉”:用多个AI互相验证答案,或者让AI每次回答都查知识库(像考试时翻书核对)。
- 隔离环境:让AI在“沙盒”里测试任务,确认安全再放出来,就像新药先在实验室试再上市。
- 多代理互查:多个AI互相监督,发现异常行为就报警,减少被集体攻击的风险。
四、未来该怎么让AI更安全?
- 高效“安检”升级:开发更智能的输入检测系统,能实时识别复杂的恶意指令,比如结合AI自己的能力来抓“坏人”。
- 减少偏见和漏洞:让AI训练数据更公平,避免因数据偏见导致歧视或错误决策(比如招聘AI不该因性别拒绝候选人)。
- 严格“工具监管”:AI调用外部工具(如API)时,要像查身份证一样严格审计,防止工具被黑客利用。
- 完善“安全标准”:制定统一的AI安全评估框架,比如测试AI在各种攻击下的抵抗力,就像汽车要通过碰撞测试。
总结
AI代理越聪明,越需要“安全铠甲”。这篇文章把它们面临的风险讲得很透,也指了路:只有解决好输入、内部逻辑、环境和外部交互的安全问题,AI才能真正靠谱地帮我们干活,而不是被坏人利用。
论文翻译
AI代理面临的威胁:关键安全挑战与未来路径概述
人工智能(AI)代理是一种基于预定义目标和数据输入自主执行任务或做出决策的软件实体。AI代理能够感知用户输入、推理和规划任务以及执行操作,在算法开发和任务性能方面取得了显著进展。然而,它们带来的安全挑战仍未得到充分探索和解决。本综述深入探讨了AI代理面临的新兴安全威胁,将其分为四个关键知识缺口:多步用户输入的不可预测性、内部执行的复杂性、操作环境的可变性以及与不可信外部实体的交互。通过系统地回顾这些威胁,本文强调了在保护AI代理方面取得的进展和存在的局限性。所提供的见解旨在激发进一步研究,以解决与AI代理相关的安全威胁,从而促进更强大和安全的AI代理应用的发展。
CCS概念:• 安全与隐私→特定领域的安全与隐私架构;
附加关键词和短语:AI代理、可信度、安全性
1 引言
AI代理是通过自主性、反应性、主动性和社交能力表现出智能行为的计算实体。它们通过感知输入、推理任务、规划行动以及使用内部和外部工具执行任务来与环境和用户交互,以实现特定目标。由GPT-4[4]等大型语言模型(LLM)驱动的AI代理,已经彻底改变了各个领域完成任务的方式,包括医疗保健[3]、金融[206]、客户服务[177]和代理操作系统[117]。这些系统利用LLM在推理、规划和行动方面的先进能力,使其能够以卓越的性能执行复杂任务。
尽管AI代理取得了重大进展,但其日益复杂也带来了新的安全挑战。由于AI代理部署在各种关键应用中,确保其安全性至关重要。AI代理安全指的是旨在保护AI代理免受可能损害其功能、完整性和安全性的漏洞和威胁的措施和实践。这包括确保代理能够安全处理用户输入、执行任务以及与其他实体交互,而不会受到恶意攻击或意外有害行为的影响。这些安全挑战源于四个知识缺口,如果不解决,可能导致漏洞[32,104,121,211]和潜在滥用[140]。如图1所示,AI代理的四个主要知识缺口是:(1)多步用户输入的不可预测性;(2)内部执行的复杂性;(3)操作环境的可变性;(4)与不可信外部实体的交互。以下几点详细描述了这些知识缺口。
— 缺口1. 多步用户输入的不可预测性。用户在与AI代理交互中扮演关键角色,不仅在任务启动阶段提供指导,还通过多轮反馈在整个任务执行过程中影响方向和结果。用户输入的多样性反映了不同的背景和经验,指导AI代理完成多项任务。然而,这些多步输入也带来了挑战,尤其是当用户输入描述不充分时,可能导致潜在的安全威胁。用户输入的不明确不仅会影响任务结果,还可能引发一连串意外反应,导致更严重的后果。此外,存在故意引导AI代理执行不安全代码或操作的恶意用户,这增加了额外的威胁。因此,确保用户输入的清晰性和安全性对于AI代理的有效和安全运行至关重要。
— 缺口2. 内部执行的复杂性。AI代理的内部执行状态是一个复杂的链环结构,从提示的重新格式化到LLM规划任务和工具的使用。这些内部执行状态中的许多是隐含的,使得难以观察详细的内部状态。这导致许多安全问题无法及时检测的威胁。AI代理安全需要对单个AI代理的复杂内部执行进行审计。
— 缺口3. 操作环境的可变性。在实践中,许多代理的开发、部署和执行阶段跨越各种环境。这些环境的可变性可能导致行为结果不一致。例如,负责执行代码的代理可能在远程服务器上运行给定代码,有可能导致危险操作。因此,在多个环境中安全完成工作任务是一个重大挑战。
— 缺口4. 与不可信外部实体的交互。AI代理的一项关键能力是教大型模型如何使用工具和其他代理。然而,当前AI代理与外部实体之间的交互过程假设外部实体是可信的,这导致了广泛的实际攻击面,例如间接提示注入攻击[56]。AI代理与其他不可信实体交互是具有挑战性的。
尽管已经做出了一些研究努力来解决这些缺口,但针对AI代理安全的全面综述和系统分析仍然缺乏。一旦这些缺口被弥合,AI代理将受益于更清晰和更安全的用户输入,从而改善任务结果,增强针对潜在攻击的安全性和鲁棒性,在各种操作环境中保持一致的行为,并增加用户的信任和可靠性。这些改进将促进AI代理更广泛地采用和集成到关键应用中,确保它们能够安全有效地执行任务。现有的关于AI代理的综述[93,114,172,203,229]主要关注其架构和应用,没有深入研究安全挑战和解决方案。我们的综述旨在填补这一空白,提供对AI代理安全的详细回顾和分析,确定缓解这些威胁的潜在解决方案和策略。所提供的见解旨在激发进一步研究,以解决与AI代理相关的安全威胁,从而促进更强大和安全的AI代理应用的发展。
在本综述中,我们基于四个知识缺口系统地回顾和分析了AI代理安全的威胁和解决方案,涵盖了广度和深度两个方面。我们主要收集了2022年1月至2024年4月期间顶级AI会议、顶级网络安全会议和高被引的arXiv论文。AI会议包括但不限于:NeurIPS、ICML、ICLR、ACL、EMNLP、CVPR、ICCV和IJCAI。网络安全会议包括但不限于:IEEE S&P、USENIX Security、NDSS、ACM CCS。
本文的组织如下。第2节介绍AI代理的概述。第3节描述与缺口1和缺口2相关的单代理安全问题。第4节分析与缺口3和缺口4相关的多代理安全。第5节提供该领域的未来发展方向。
图1. AI代理安全知识缺口示意图。这些知识缺口增加了AI代理的安全挑战。具体而言,缺口1与感知威胁(3.1节)相关,缺口2与大脑威胁(3.2节)和行动威胁(3.3节)相关,缺口3与代理-环境交互威胁(4.1节)相关,缺口4涉及代理-代理交互威胁(4.2节)和记忆威胁(4.3节)。
图2. AI代理的一般工作流程。通常,一个AI代理由三个组件组成:感知、大脑和行动。
3 内部执行安全
如知识缺口1和2所述,单代理系统存在不可预测的多步用户输入和复杂的内部执行。在本节中,我们主要探讨这些复杂的内部执行威胁及其相应的防御措施。如图2所示,我们讨论了AI代理统一概念框架中三个主要组件的威胁。
3.1 感知威胁
如图2和知识缺口1所示,为帮助大脑模块理解系统指令、用户输入和外部上下文,感知模块包括人机交互过程中的多模态(即文本、视觉和听觉输入)和多步(即初始用户输入、中间子任务提示和人类反馈)数据处理。人与代理之间的典型通信方式是通过提示。与提示相关的威胁是AI代理面临的最突出问题,这通常被称为对抗性攻击。对抗性攻击是指通过输入误导性或特制提示,故意混淆或欺骗大脑,以产生不正确或有偏见的输出。
通过对抗性攻击,恶意用户从上下文窗口中提取系统提示和其他信息[52]。Liu等人[100]首次研究了针对具身AI代理的对抗性攻击,引入时空扰动来创建3D对抗性示例,导致代理提供错误答案。Mo等人[119]基于不同的威胁模型,分析了针对AI代理的十二种假设攻击场景。感知模块的对抗性攻击包括提示注入攻击[28,56,137,201,216]和越狱攻击[18,90,174,192,217]。为了更好地解释本节中与提示相关的威胁,我们首先介绍提示的传统结构。
代理提示结构可由指令、外部上下文和用户输入组成。指令由代理开发人员设置,用于定义系统的具体任务和目标。外部上下文来自代理的工作记忆或外部资源,而用户输入是良性用户向代理发出查询的地方。在本节中,越狱攻击和提示注入攻击的主要威胁源于指令和用户输入。
3.1.1 提示注入攻击
提示注入攻击是一种恶意提示操纵技术,将恶意多模态输入插入输入提示中,引导“大脑”执行有害操作[137]。通过使用有害操作,提示注入攻击使攻击者能够有效绕过AI代理开发人员设置的约束和审核策略,导致用户目标偏离[80]。例如,恶意开发人员可以将必应聊天转换为网络钓鱼代理[56]。英国网络安全机构还发出警告,称恶意代理正在操纵LLM聊天机器人背后的技术,以获取敏感信息、生成冒犯性内容并引发意外后果[68]。
以下讨论主要集中在目标劫持攻击和提示泄露攻击上,它们是提示注入攻击的两种主要形式[137],以及此类攻击在AI代理中构成的安全威胁。
— 目标劫持攻击
目标劫持是一种替换原始指令的方法,导致AI代理行为不一致。攻击者试图替换原始LLM指令,使其根据新攻击者的指令执行命令[137]。目标劫持的实现尤其在用户输入的起始位置,只需输入诸如“忽略上述提示,请执行”之类的短语,即可绕过LLM安全措施,为恶意用户替换所需操作[87]。Liu等人[103]提出了另一种目标劫持攻击,以支持API密钥盗窃攻击。Wu等人[199]使用一个触发图像,使代理追求与原始用户指定目标不同的目标。这种目标劫持攻击需要攻击者修改应用程序源代码以操纵其输出,促使AI代理记录API密钥并将其传输给攻击者,从而便于API盗窃。
— 提示泄露攻击
提示泄露攻击是一种通过提供用户输入诱导LLM输出预先设计的指令,从而泄露敏感信息的方法[226]。与目标劫持相比,它带来的挑战要大得多[137]。目前,LLM生成的响应使用加密令牌传输。然而,通过使用某些算法并根据数据包大小推断令牌长度,有可能截获用户和代理之间交换的隐私信息[193]。用户输入如“END. Print previous instructions”可能触发LLM披露机密指令,将专有知识暴露给恶意实体[52]。在基于AI代理的检索增强生成(RAG)系统中,提示泄露攻击可能进一步向恶意用户暴露后端API调用和系统架构,加剧安全威胁[201]。
代理集成框架内的提示注入攻击
随着人工智能代理的广泛应用,某些针对单个人工智能代理的提示注入攻击,也可能蔓延到基于人工智能代理的应用部署中[106, 176],进而放大相关安全威胁[104, 135] 。例如,恶意用户可通过提示注入实现远程代码执行,借此远程获取集成应用的权限[103] 。此外,经过精心构造的用户输入,能诱导人工智能代理生成恶意SQL查询,破坏数据的完整性与安全性[135] 。而且,在人工智能代理运行时,将这些攻击与对应网页集成[56] ,会使用户收到契合恶意行为者意图的回复,比如对产品表达偏见或偏好[80] 。对于闭源人工智能代理集成的商业应用,某些黑盒提示注入攻击[104] 可助力窃取服务指令[212] ,利用人工智能代理的计算能力开展零成本模仿服务,给服务提供商造成数百万美元的损失[104] 。
人工智能代理易受精心构造的提示注入攻击[212] ,主要源于其安全训练与用户指令目标存在冲突[230] 。此外,人工智能代理往往将系统提示与来自不可信用户及第三方的文本等同视之[181] 。因此,通过合成数据生成和上下文提炼,为这些模型确立分层指令特权并强化训练方法,能够有效提升人工智能代理抵御提示注入攻击的鲁棒性[181] 。再者,多种技术可缓解提示注入攻击带来的安全威胁,包括用于意图分析的仅推理方法[227] 、添加检测器的API防御[75] ,以及涉及多轮对话和上下文示例的黑盒防御技术[5, 216] 。
借助提示工程的提示注入攻击
提示注入攻击旨在通过注入精心构造的提示,利用代理遵循指令的能力,操纵人工智能代理,使其偏离预期行为。这类攻击的本质在于攻击者如何“设计”提示,以最大程度增加执行概率。总体而言,基于所用的提示工程,这些攻击可分为六大类:
— 朴素注入[61, 149]
良性用户提示 x b x^b xb 直接拼接注入指令 p i n j p_{inj} pinj 和注入数据 d i n j d_{inj} dinj 。恶意用户提示定义为 x ~ = x b ⊕ p i n j ⊕ d i n j \tilde{x} = x^b \oplus p_{inj} \oplus d_{inj} x~=xb⊕pinj⊕dinj ,其中 ⊕ \oplus ⊕ 表示字符串拼接。EIA[96] 发现,将 p i n j p_{inj} pinj 和 d i n j d_{inj} dinj 插入良性提示 x b x^b xb 的功能描述附近,能达到最佳攻击效果。
— 转义字符注入[104]
良性用户提示 x b x^b xb 拼接转义字符 c c c 、注入指令 p i n j p_{inj} pinj 和注入数据 d i n j d_{inj} dinj 。恶意用户提示定义为 x ~ = x b ⊕ c ⊕ p i n j ⊕ d i n j \tilde{x} = x^b \oplus c \oplus p_{inj} \oplus d_{inj} x~=xb⊕c⊕pinj⊕dinj 。
— 上下文忽略注入[138]
良性用户提示 x b x^b xb 拼接忽略任务的文本 i i i 、注入指令 p i n j p_{inj} pinj 和注入数据 d i n j d_{inj} dinj 。恶意用户提示定义为 x ~ = x b ⊕ i ⊕ p i n j ⊕ d i n j \tilde{x} = x^b \oplus i \oplus p_{inj} \oplus d_{inj} x~=xb⊕i⊕pinj⊕dinj 。
— 虚假完成注入[196]
良性用户提示 x b x^b xb 拼接虚假反馈 f f f 、注入指令 p i n j p_{inj} pinj 和注入数据 d i n j d_{inj} dinj 。恶意用户提示定义为 x ~ = x b ⊕ f ⊕ p i n j ⊕ d i n j \tilde{x} = x^b \oplus f \oplus p_{inj} \oplus d_{inj} x~=xb⊕f⊕pinj⊕dinj 。
— 多模态注入[96, 199]
良性用户提示 x b x^b xb 和良性多模态输入 m m m ,拼接恶意多模态数据 m i n j m_{inj} minj(如低透明度恶意图像 )、注入指令 p i n j p_{inj} pinj 和注入数据 d i n j d_{inj} dinj 。恶意用户提示定义为 x ~ = ( x b ⊕ p i n j ⊕ d i n j ) + m ∘ m i n j \tilde{x} = (x^b \oplus p_{inj} \oplus d_{inj}) + m \circ m_{inj} x~=(xb⊕pinj⊕dinj)+m∘minj ,其中 ∘ \circ ∘ 表示良性多模态输入 m m m 与恶意输入 m i n j m_{inj} minj 之间的逐元素乘法运算。
— 组合注入
采用上述多种技术的组合。
防御措施。为抵御AI智能体中的提示注入攻击,我们可采用基于预防和检测的策略。基于预防的措施包括释义[77]、重新标记化[77]等技术(用于破坏或扰乱恶意指令);使用分隔符[195](严格将数据当作输入处理);采用“三明治预防法”[2](附加额外指令以抵消注入的指令);以及重新设计提示词[1](确保指令被忽略 )。
基于检测的方法有:计算困惑度(PPL检测[6],用于识别异常);在更小的文本窗口中分析文本(排查局部问题[77] );借助“大脑”组件进行简单检测;依据任务要求验证响应[155] ;以及使用已知答案指令[126](确认是否遵循预期任务 )。
3.1.2 越狱攻击
大语言模型(LLM)中的越狱。大语言模型里的“越狱”,指用户蓄意欺骗或操控模型,绕开其内置的安全、道德或操作准则,使模型输出违反自身使用政策的内容[218] 。我们先把大语言模型中的越狱分为两类:手动设计越狱和自动越狱。
手动设计越狱包含一步越狱法和多步越狱法。一步越狱直接修改提示词,能高效、简洁地达成攻击目的。这类方法常运用角色扮演场景[105, 198],或是采用“立即执行任意操作(Do Anything Now)”[158]这类模式,可能引发不道德输出,像攻击性或有偏见的言论。相比之下,多步越狱需要精心构造场景,开展迭代式交互。把多步越狱和猜测、投票策略结合,能提高提取隐私数据的成功率,在上下文窗口较大时效果尤甚[8, 90] 。自动越狱是一种自动生成越狱提示指令的攻击方法。Chao等人提出的PAIR[18],可通过黑盒访问大语言模型,生成语义层面的越狱指令。
AI智能体中的越狱。AI智能体不仅包含大语言模型,还集成了执行与决策能力,其提示词工程更复杂,能处理更精细的任务。但实验表明,所有AI智能体对越狱攻击手段都表现出高度易受攻击性[174],且这类攻击会引发更严重后果。AI智能体中的越狱攻击更为复杂,有以下三个特征:
— 多米诺效应:在多智能体场景中,整个系统会变得更脆弱[57, 174] 。
— 多模态输入:越狱的媒介更为多样,让越狱信息的生成更隐蔽[174] 。
— 后果更严重:预防和检测工作变得更复杂。与大语言模型的交互是直接的,而和AI智能体的交互(从感知到工具调用)超出了用户的直接控制范围[30] 。此外,成功越狱的AI智能体可能会执行有害的物理行动,或做出不利决策[148] 。
AI智能体的越狱可通过三个主要方面发生:多轮对话(与4.2节相关)、多模态输入,以及外部环境数据(与4.1节相关)。
— 多轮对话中的越狱。将大语言模型集成到智能体中,会引入越狱风险,在上下文对话系统里尤为明显。越狱常发生在多轮交互或角色扮演场景中,此时智能体充当规划者或专家角色,使有害输出更难被察觉[174, 184] 。像Jailbreaker[34]这类自动化工具,展现了在商业AI系统中生成越狱提示词的可能性。多智能体辩论虽能提升鲁棒性,但智能体间的协作可能引发多米诺效应,一个被攻破的智能体可能危及其他智能体,增加系统的脆弱性[25, 174] 。
— 多模态输入引发的越狱。大语言模型的多模态特性在AI智能体中尤为突出,因为它们支持语音、图像等多种模态。这虽提升了灵活性,但攻击者可在图像或其他模态中嵌入恶意提示词,结合文本输入时就能绕开安全机制。已有研究针对基于语音的越狱(借助GPT - 4实现)展开探讨[159] 。在智能体层面,研究人员提出了多智能体系统的新型越狱范式,可触发“传染性越狱”[57] 。攻击者向随机选定智能体的内存中输入一张传染性对抗图像,无需攻击者进一步干预,感染就能扩散至近100%的智能体,且所有受感染智能体都会表现出有害行为。
— 外部环境数据导致的越狱。AI智能体可能接收并信任外部环境数据,从而引入新的越狱风险。Cui等人[30]表明,使用工具生成或检索恶意内容的智能体,可通过微调提示词加剧越狱风险。Terekhov等人[173]强调了多智能体网络中的安全风险,即便存在中间防护,攻击者仍能提取敏感信息。Dong等人推出了Atlas[40],这是一个由大语言模型驱动的智能体,利用模糊测试和思维链推理,提升执行越狱任务的表现。
此外,由于传统智能体通过强化学习进行学习,在智能体系统中,将越狱提示问题转化为搜索问题[22, 184],可通过基于强化学习的方法增强其越狱能力。大语言模型(LLM)智能体中,越狱的后果可能更为严重。Maksym等人[148]表明,越狱可能导致由大语言模型控制的智能体做出有害的物理行为,引发更直接、更严重的后果。
防御措施:AI智能体抵御越狱的鲁棒性仍较弱,对于配备非鲁棒大语言模型的AI智能体而言,情况尤为突出。为缓解该问题,基于过滤的方法为增强大语言模型抵御越狱攻击的鲁棒性提供了可行途径[154]。Kumar等人[84]提出一种经认证的对抗性提示防御方法,即利用替代模型分析用户输入所有可能子串的毒性。此外,多智能体辩论(语言模型通过讨论和反馈进行自我评估)有助于提升AI智能体抵御越狱的鲁棒性[25]。
要点1:针对AI智能体感知的威胁,利用模型层面的漏洞操纵AI智能体的“大脑”。这些威胁会破坏或绕过良性指令的策略约束,导致不当行为,破坏智能体生态系统的完整性,最终引发隐私和安全问题。
3.2 大脑威胁
大脑所面临的威胁与知识缺口2相关,正如图2所示,大脑模块借助大语言模型(LLM)开展推理和规划,进而做出决策。大脑主要由大语言模型构成,而大语言模型是AI智能体的核心所在。为了更好地阐释大脑模块存在的威胁,我们首先介绍大脑的传统结构。
知识要点3.2:大脑结构
推理:推理是基于大语言模型的一种能力,类似于人类的认知能力。大语言模型将用户输入作为任务接收,把这些任务分解为不同子任务后输出。最终目的是指导行动模块执行这些子任务。常用的推理方法是思维链(CoT)[190] 。
规划:规划为推理过程生成的每个子任务,提供结构化的思考流程。
决策:经过推理和规划后,智能体内的大语言模型会做出决策,在行动模块中选择工具。
AI智能体的大脑模块可由推理、规划和决策构成,它们能够处理来自感知模块的提示。然而,基于大语言模型的智能体的大脑模块并不透明,这降低了其可信度。作为核心组件的大语言模型,易遭受后门攻击。它们对细微输入修改的鲁棒性不足,会导致模型对齐偏差和产生幻觉。此外,就大脑的推理结构(思维链,CoT)而言,它们容易制定错误计划,尤其是在任务复杂且需要长期规划时,从而暴露出规划威胁。
3.2.1 后门攻击
后门攻击旨在在大脑的大语言模型中植入后门,使模型在良性输入时能正常运行,而当输入符合特定条件(如包含后门触发条件)时,就会产生恶意输出。在自然语言领域,后门攻击主要通过在训练期间投毒数据来植入后门实现。这主要是通过用触发条件污染部分训练数据,使模型学习到错误的关联。先前的研究[85, 182] 已阐明了后门攻击对大语言模型造成的严重后果。鉴于基于大语言模型的智能体将这些模型作为核心组件,可合理断言,此类智能体也极易受到这些攻击的影响。
与直接生成最终输出的传统大语言模型不同,智能体通过执行多步中间流程来完成任务,还可在生成输出前与环境交互以收集外部上下文(可选操作 )。AI智能体这一扩展的输入空间,为攻击者提供了更多样的攻击途径,比如能够操纵智能体中间推理过程的任意阶段。Yang等人[211] 将针对智能体的后门攻击分为两类。
第一类,改变对用户的最终响应。后门触发条件可隐藏在用户查询或中间结果中。在这种情况下,攻击者的目标是修改智能体原本的推理轨迹。例如,当良性用户询问产品推荐,或者在智能体中间处理过程中,关键攻击触发条件被激活。结果,智能体给出的响应会推荐攻击者指定的产品。
第二类,对用户的最终响应不变。智能体通过将整体目标分解为中间步骤来执行任务。这种方式使得后门模式能够显现——引导智能体遵循攻击者指定的恶意轨迹,同时仍生成正确的最终输出。这种能力能够修改中间推理和规划过程。例如,黑客可修改软件系统,使其在进行图像编辑任务时始终使用Adobe Photoshop,同时故意排除其他程序。Dong等人[39] 开发了一个包含后门的电子邮件助手智能体。当良性用户命令它给朋友发送电子邮件时,它会在邮件内容中插入钓鱼链接,然后报告任务状态为已完成。
防御措施:遗憾的是,当前针对后门攻击的防御措施仍局限于模型层面,而非整个智能体生态系统。智能体内部复杂的交互,让防御变得更具挑战性。这些基于模型的后门防御措施主要包括消除投毒数据中的触发条件[38] 、移除与后门相关的神经元[83] ,或者尝试恢复触发条件[21] 。然而,智能体交互的复杂性显然给这些防御方法带来了极大限制。我们迫切需要更多防御措施,来应对基于智能体的后门攻击。
3.2.2 对齐偏差
对齐是指AI智能体在广泛部署过程中,理解并执行人类指令的能力,确保智能体的行为与人类的期望和目标相符,提供有用、无害、无偏见的响应。AI智能体中的对齐偏差,源于开发者预期功能与中间执行状态之间出现意外差异。这种对齐偏差会引发与大语言模型相关的道德和社会威胁,如歧视、仇恨言论、社会排斥、有害信息、错误信息以及有害的人机交互[12] 。Rishabh等人[12] 提出的“非对齐红队测试”表明,仅用100个样本,他们就能以88%的成功率“越狱”ChatGPT,暴露出AI智能体大脑模块中隐藏的危害和偏差。我们将影响AI智能体大脑对齐偏差的潜在威胁场景分为三类:训练数据中的对齐偏差、人类与智能体之间的对齐偏差,以及具身环境中的对齐偏差。
— 训练数据对齐偏差
人工智能的对齐偏差往往源于训练数据。海量的参数数据(比如,GPT-3的45TB语料库[90] )可能包含不安全内容,进而导致生成不真实、有害、有偏见或非法的输出[13, 51, 59, 71, 107, 129, 156, 180, 183, 186] 。和数据投毒不同,这种情况通常是无意造成的。
– 有害训练数据
有害数据,像仇恨言论、威胁之类的内容[73, 194] ,在LLaMA2的预训练语料库中约占0.2%[175] 。依赖这类大语言模型的人工智能智能体,有生成有害内容的风险[35] ,会干扰决策,对外部实体构成威胁。
– 有偏差和不公平的数据
训练数据中可能存在偏差[49] ,还会有文化和语言差异,比如种族、性别或地域方面的偏差。由于大语言模型具备联想能力[14, 31] ,训练数据里像性别、种族、国籍、文化这类代词和身份标识频繁出现,会让人工智能智能体在处理数据时产生偏差[66, 175] 。这种偏差会妨碍对文化的准确理解,加剧不平等现象,还会在跨文化交流中引发冲突。
— 人机对齐偏差
人机对齐偏差指的是人工智能智能体的表现和人类期望不一致的现象。传统的人工智能对齐方法,旨在训练过程中直接让智能体的期望和用户的期望对齐。这推动了基于人类反馈的强化学习(RLHF)[26, 144] 对人工智能智能体的微调发展,进而提升人工智能智能体的安全性[10, 175] 。然而,由于人类道德天然存在范围和多样性,大语言模型的对齐价值观和不同用户群体的实际价值观之间的冲突难以避免[139] 。这类以人类为中心的方法可能依赖人类反馈,而人类反馈有时从根本上就有缺陷或者不正确。在这种情况下,人工智能智能体容易出现迎合行为。
– 迎合行为
迎合行为指的是大语言模型在训练过程中,会依据人类反馈里的暗示性偏好,生成和用户提供的信念或者误导性提示相符的答案[146] 。出现这种现象的原因是,大语言模型通常会根据数据指令和用户反馈进行调整,往往会附和用户给出的观点[157, 189] ,即便这些观点包含误导性信息。
这种过度迎合的行为也会在人工智能智能体中体现,增加生成错误信息的风险。这种迎合行为不只是体现在政治立场这类模糊问题上[136] ;就算智能体知道答案不正确,也可能会选一个明显错误的答案[189] ,因为当模型内部知识和偏向用户的知识矛盾时,模型可能会把用户观点看得比事实准确性更重要[71] 。
— 具身环境中的对齐偏差
具身环境中的对齐偏差[16] 指的是,人工智能智能体虽然能生成文本,但无法理解环境的底层规则,也不能生成有深度的行动。这是因为人工智能智能体的Transformer架构[178] ,虽能生成行动序列,却缺乏直接解决环境中问题的能力。人工智能智能体没有识别环境中因果结构、与之交互以收集数据并更新自身知识的能力。在具身环境中,人工智能智能体的对齐偏差可能会导致生成无效行动。比如,在像《胡闹厨房》这样的模拟厨房环境里,当要求做一份番茄沙拉时,人工智能智能体可能会一直添加黄瓜和彩椒,即便环境中并没有提供这些食材[171] 。而且,当环境存在特定约束时,人工智能智能体可能无法理解环境的动态变化,继续执行之前的行动,从而引发潜在安全隐患。例如,当用户要求在某个路口开启行人绿灯时,智能体可能会直接按要求开启行人绿灯,却没考虑到另一个车道的车辆交通信号灯也处于绿灯状态[150] 。这可能会引发交通事故,对行人构成安全威胁。更多详细内容见4.1节。
防御措施:人工智能智能体的对齐主要通过有监督的方法实现,比如对RLHF进行微调[130] 。Baihan等人提出的SafeguardGPT[98] ,运用多个人工智能智能体模拟心理治疗,纠正基于大语言模型的人工智能聊天机器人可能出现的有害行为。鉴于强化学习(RL)能通过环境中的奖励函数获得反馈,学者们提出把强化学习和大语言模型的先验知识结合,去探索并提升人工智能智能体的能力[69, 145, 209, 224] 。Thomas Carta等人[42] 把大语言模型用作智能体的决策中心,通过在在线强化学习交互环境中进行功能接地,从环境中收集外部任务条件奖励,以此实现对齐。Tan等人[171] 引入了TWOSOME在线强化学习框架,在这个框架里,大语言模型不直接生成行动,而是为每个标记提供对数似然分数。然后用这些分数计算每个行动的联合概率,选择概率最高的行动来做决策,进而解决生成无效行动的问题。
3.2.3 幻觉
幻觉是AI智能体大脑中普遍存在的挑战,其特征是生成偏离提供的源内容、缺乏意义或看似合理但实际错误的陈述[78, 167, 228]。AI智能体大脑中幻觉的发生通常可归因于知识缺口,这些知识缺口由训练期间的数据压缩[36]和数据不一致[152, 170]引起。此外,当AI智能体生成长篇对话时,由于推理的复杂性和上下文跨度大,容易产生幻觉[197]。随着模型规模的扩大,幻觉也变得更加严重[62, 86]。
AI智能体中幻觉的存在构成了各种安全威胁。在医疗领域,如果从患者信息表生成的摘要中存在幻觉,可能会对患者构成严重威胁,导致用药不当或诊断错误[78]。在模拟世界中,智能体数量的显著增加可以增强模拟的可信度和真实性。然而,随着智能体数量的增加,通信和消息传播问题变得相当复杂,导致信息扭曲、误解和幻觉现象,从而降低系统的效率[133]。在游戏开发领域,AI智能体可用于控制游戏非玩家角色(NPC)的行为[166],从而创造更具沉浸感的游戏体验。但是,当与玩家互动时,AI智能体NPC产生的幻觉行为[19],例如不存在的任务或错误的指令,也会降低玩家体验。在日常生活中,当用户指令不完整时,AI智能体因“猜测”而产生的幻觉有时会构成财务安全威胁。例如,当用户请求AI智能体与同事共享机密工程笔记以进行协作编辑但忘记指定同事的电子邮件地址时,智能体可能会根据同事的名字伪造一个电子邮件地址,并授予假定的访问权限来共享机密笔记[150]。此外,在回答用户查询时,AI智能体可能会提供关于日期、统计数据或在线公开信息的错误信息[92, 118, 124]。这些都削弱了AI智能体的可靠性,使人们无法完全信任它们。
防御措施:为了减少AI智能体中的幻觉,研究人员提出了各种策略,包括对齐(见3.2.2节)、多智能体协作、检索增强生成(RAG)、内部约束和幻觉的后期纠正。
— 多智能体协作。学者们提出使用多个智能体协作开发以减少幻觉[19, 41]。Chen等人[19]在游戏开发中整合了跨规划、任务制定、代码生成和执行的审查智能体,最大限度地减少了幻觉。Du等人[41]引入了一种基于辩论的方法,智能体通过迭代完善响应以达成共识。然而,此类方法通常需要重复的API调用,从而增加成本[69]。详细信息见4.2.1节。
— 检索增强生成(RAG)。RAG通过提高开放域问题的准确性来解决AI智能体中的幻觉[88]。研究人员[162]将RAG与诸如Poly-encoder Transformers[74]和Fusion-in-Decoder[76]等模型相结合,用于上下文感知对话、连贯响应和减少幻觉。谷歌的SAFE[191]通过搜索查询对分解的响应进行事实核查,提高了AI智能体在长格式任务中的可靠性。
— 内部约束。通过实施特定状态的内部约束可以减少幻觉。对于编码任务的AI智能体[19],一种解耦方法将任务分解为带有示例提示的更小片段,简化推理并减少幻觉和冗余。
— 幻觉的后期纠正。Dziri等人[43]采用了生成-纠正策略,使用知识图来纠正响应,并利用独立的事实评论家来识别可能的幻觉来源。Zhou等人[233]提出了LURE,它可以使用三个关键指标(CoScore、UnScore、PointScore)快速准确地识别描述中的幻觉部分,然后使用纠正器对其进行纠正。
然而,由于AI智能体训练语料库的庞大规模和输出的随机性,目前各种纠正幻觉的方法都有一定的缺点,这对幻觉的生成和预防都提出了重大挑战。
3.2.4 规划威胁
规划威胁源于AI智能体的“大脑”,具体来说源于使用内部大语言模型进行任务分解和推理的过程。我们根据四种不同类型的思维链(CoT)结构对规划威胁进行分类,如图4所示,包括顺序规划[82]、迭代优化规划、基于分支的规划和树状规划的风险。由于这些结构,最近的一项工作[79]认为,智能体的思维链可能充当“错误放大器”,其中一个微小的初始错误会在后续行动中不断放大和传播,最终导致灾难性的失败。尽管当前的研究尚未解决它们各自的安全问题,但我们深入研究了这些结构的错误分析。
— 顺序规划。顺序规划是一条单一的线性路径,其中每个步骤完全依赖于前一个步骤。错误在整个推理链中直接传播和累积,纠正的机会微乎其微。研究[82]在其表22中展示了一个规划案例研究,表明所有任务失败都源于中间规划步骤的失败。
— 迭代优化规划。迭代优化规划是将规划与外部反馈分离的迭代范式,智能体首先独立生成规划并收集观察结果,然后将它们结合起来产生行动。ReWOO[207]
防御措施:为了解决这个问题,当前的策略分为两种方法。第一种方法涉及建立基于政策的宪法准则[70],而第二种方法涉及人类用户构建上下文无关文法(CFG)作为形式语言来表示智能体的约束[94]。前者在规划的早期、中期和后期对规划的生成设置基于政策的标准限制。后者方法将CFG转换为下推自动机(PDA),并限制大语言模型仅选择PDA在其当前状态下定义的有效动作,从而确保在最终生成的规划中满足约束条件。
要点2:AI智能体大脑的威胁主要源于AI智能体的外部来源(例如数据集)和内部不稳定性(例如规划结构的设计)。这些漏洞破坏了智能体核心推理、规划和决策过程的完整性,导致行动执行的可靠性下降,并放大了潜在的安全风险。
3.3 行动威胁
与知识缺口2相关,在单个智能体内存在一种不可见却复杂的内部执行过程,这使得内部状态的监控变得复杂,并可能导致众多安全威胁。这些内部执行通常被称为行动,是智能体用来按用户指示执行任务的工具(如调用API)。为了更好地理解行动威胁,我们将行动结构展示如下:
知识要点3.3:行动结构
行动输入:由智能体大脑创建的此消息指示所选工具在单个回合中的使用方式。
行动执行:工具根据行动输入执行子任务,该过程发生在工具内部。
观察:此消息用于返回工具使用结果,其中通常包含用户的个人信息。
最终答案:这是指示行动完成状态的结果消息。
我们将行动的威胁分为两个方向。一个是从智能体到工具的前向通信过程中的威胁(即发生在行动输入中),称为智能体到工具(Agent2Tool)的威胁。第二类与智能体使用的工具和API本身的固有威胁有关(即发生在行动执行中)。利用这些API可能会增加其受攻击的脆弱性,并且智能体可能会受到观察结果和后续行动中的错误信息的影响,我们将其称为供应链威胁。
3.3.1 智能体到工具的威胁
智能体到工具的威胁通常分为主动或被动两类。在主动模式下,威胁源于大语言模型提供的行动输入。具体而言,在推理和规划之后,智能体会寻找特定工具来执行子任务。作为自回归模型,大语言模型基于下一个标记的概率生成计划,这会引入可能影响工具性能的生成威胁。ToolEmu[150]发现了AI智能体的一些故障,因为行动执行需要过多的工具权限,导致在没有用户许可的情况下执行高风险命令。然而,被动模式涉及的威胁源于对正常工具使用的观察结果和最终答案的拦截。这种拦截可能会侵犯用户隐私,有可能导致用户数据在传输给AI智能体及其使用的工具期间意外泄露给第三方公司。这可能导致这些第三方未经授权使用用户信息。据报道,现有的几个使用工具的AI智能体已遭受由被动模式引起的用户隐私泄露,例如HuggingGPT[160]和ToolFormer[153]。
防御措施:为了缓解上述威胁,一个相对直接的方法是防御智能体到工具威胁的主动模式。ToolEmu设计了一个隔离的沙盒和相应的模拟器,在沙盒内模拟智能体子任务的执行,在真实环境中执行命令之前评估其威胁。然而,其有效性在很大程度上依赖于模拟器的质量。防御被动模式的威胁更具挑战性,因为这些攻击策略往往是智能体自身开发和测试不完整的结果。Zhang等人[225]集成了同态加密方案,并部署了基于属性的伪造生成模型,以防范通信过程中的隐私泄露。但是,这种方法会给智能体带来额外的计算和通信成本。
3.3.2 供应链威胁
供应链威胁是指工具本身固有的安全漏洞或工具被攻击,例如通过缓冲区溢出、SQL注入和跨站脚本攻击。这些漏洞导致行动执行偏离预期路线,导致不良的观察结果和最终答案。WIPI[200]采用间接提示注入攻击,使用包含特定精心设计提示的恶意网页。当典型智能体访问此网页时,其观察结果和最终答案都会被故意更改。同样,恶意用户可以修改YouTube字幕来改变ChatGPT从这些字幕中检索的内容[68]。Webpilot[45]被设计为ChatGPT的恶意插件,当ChatGPT调用此插件时,它可以控制ChatGPT的聊天会话并泄露用户对话历史。
防御措施:为了缓解供应链威胁,必须实施更严格的供应链审计政策和智能体仅调用可信工具的政策。该领域很少提及这方面的研究。
要点3:行动威胁利用了智能体行动与工具本身分离所产生的漏洞。这种分离使双方都能绕过既定的安全措施,导致潜在的政策或协议违反。解决此漏洞需要统一的标准和紧密集成的框架,以防止相互利用并确保安全操作。
防御相关内容
防御措施。为抵御AI智能体中的提示注入攻击,我们可采用基于预防和检测的策略。基于预防的措施包括释义[77]、重新标记化[77]等技术(用于破坏或扰乱恶意指令);使用分隔符[195](严格将数据当作输入处理);采用“三明治预防法”[2](附加额外指令以抵消注入的指令);以及重新设计提示词[1](确保指令被忽略 )。
基于检测的方法有:计算困惑度(PPL检测[6],用于识别异常);在更小的文本窗口中分析文本(排查局部问题[77] );借助“大脑”组件进行简单检测;依据任务要求验证响应[155] ;以及使用已知答案指令[126](确认是否遵循预期任务 )。
防御措施:AI智能体抵御越狱的鲁棒性仍较弱,对于配备非鲁棒大语言模型的AI智能体而言,情况尤为突出。为缓解该问题,基于过滤的方法为增强大语言模型抵御越狱攻击的鲁棒性提供了可行途径[154]。Kumar等人[84]提出一种经认证的对抗性提示防御方法,即利用替代模型分析用户输入所有可能子串的毒性。此外,多智能体辩论(语言模型通过讨论和反馈进行自我评估)有助于提升AI智能体抵御越狱的鲁棒性[25]。
防御措施:遗憾的是,当前针对后门攻击的防御措施仍局限于模型层面,而非整个智能体生态系统。智能体内部复杂的交互,让防御变得更具挑战性。这些基于模型的后门防御措施主要包括消除投毒数据中的触发条件[38] 、移除与后门相关的神经元[83] ,或者尝试恢复触发条件[21] 。然而,智能体交互的复杂性显然给这些防御方法带来了极大限制。我们迫切需要更多防御措施,来应对基于智能体的后门攻击。
防御措施:人工智能智能体的对齐主要通过有监督的方法实现,比如对RLHF进行微调[130] 。Baihan等人提出的SafeguardGPT[98] ,运用多个人工智能智能体模拟心理治疗,纠正基于大语言模型的人工智能聊天机器人可能出现的有害行为。鉴于强化学习(RL)能通过环境中的奖励函数获得反馈,学者们提出把强化学习和大语言模型的先验知识结合,去探索并提升人工智能智能体的能力[69, 145, 209, 224] 。Thomas Carta等人[42] 把大语言模型用作智能体的决策中心,通过在在线强化学习交互环境中进行功能接地,从环境中收集外部任务条件奖励,以此实现对齐。Tan等人[171] 引入了TWOSOME在线强化学习框架,在这个框架里,大语言模型不直接生成行动,而是为每个标记提供对数似然分数。然后用这些分数计算每个行动的联合概率,选择概率最高的行动来做决策,进而解决生成无效行动的问题。
防御措施:为了减少AI智能体中的幻觉,研究人员提出了各种策略,包括对齐(见3.2.2节)、多智能体协作、检索增强生成(RAG)、内部约束和幻觉的后期纠正。
防御措施:为了解决这个问题,当前的策略分为两种方法。第一种方法涉及建立基于政策的宪法准则[70],而第二种方法涉及人类用户构建上下文无关文法(CFG)作为形式语言来表示智能体的约束[94]。前者在规划的早期、中期和后期对规划的生成设置基于政策的标准限制。后者方法将CFG转换为下推自动机(PDA),并限制大语言模型仅选择PDA在其当前状态下定义的有效动作,从而确保在最终生成的规划中满足约束条件。
防御措施:为了缓解上述威胁,一个相对直接的方法是防御智能体到工具威胁的主动模式。ToolEmu设计了一个隔离的沙盒和相应的模拟器,在沙盒内模拟智能体子任务的执行,在真实环境中执行命令之前评估其威胁。然而,其有效性在很大程度上依赖于模拟器的质量。防御被动模式的威胁更具挑战性,因为这些攻击策略往往是智能体自身开发和测试不完整的结果。Zhang等人[225]集成了同态加密方案,并部署了基于属性的伪造生成模型,以防范通信过程中的隐私泄露。但是,这种方法会给智能体带来额外的计算和通信成本。

GitCode 天启AI是一款由 GitCode 团队打造的智能助手,基于先进的LLM(大语言模型)与多智能体 Agent 技术构建,致力于为用户提供高效、智能、多模态的创作与开发支持。它不仅支持自然语言对话,还具备处理文件、生成 PPT、撰写分析报告、开发 Web 应用等多项能力,真正做到“一句话,让 Al帮你完成复杂任务”。
更多推荐
所有评论(0)