万字长文!从AI Agent到Agent工作流,一文详细了解代理工作流(Agentic Workflows)
AI Agent、Agentic AI、Agent 架构以及 Agent 工作流等概念,如今已成为行业热议焦点,可它们究竟是什么,又能实现哪些功能?新技术的出现,往往伴随着术语的混乱与过度炒作。本文将聚焦代理型 AI 的关键概念 —— 代理工作流(Agentic Workflows),展开深入剖析。单独的 AI 代理价值有限,唯有赋予其明确的角色、目标与结构,借助工作流的运作,才能充分释放其潜力。
AI Agent、Agentic AI、Agent 架构以及 Agent 工作流等概念,如今已成为行业热议焦点,可它们究竟是什么,又能实现哪些功能?新技术的出现,往往伴随着术语的混乱与过度炒作。本文将聚焦代理型 AI 的关键概念 —— 代理工作流(Agentic Workflows),展开深入剖析。
单独的 AI 代理价值有限,唯有赋予其明确的角色、目标与结构,借助工作流的运作,才能充分释放其潜力。掌握代理工作流,便是掌握 AI 代理运行的底层逻辑与方式。因此,本文将由 AI Agent 切入,逐步延伸至 Agent 工作流,全方位、详细地为你揭开代理工作流(Agentic Workflows)的神秘面纱!
1、什么是 AI Agent?
AI 代理是将大型语言模型(LLMs)的推理和决策能力,与现实世界交互工具相融合的系统。这一系统可以在较少的人为干预下,高效完成复杂任务。在实际应用中,AI 代理会被赋予特定角色,并具备不同层级的自主性,以达成最终目标。此外,AI 代理还拥有记忆功能,能够从过往经历中汲取经验,持续优化自身性能。
若想深入了解 AI 代理在代理工作流中发挥的作用,首先需要明晰其核心构成要素。
2、AI Agent的组成部分
AI Agent 虽然具备半自主决策能力,但它并非独立运行,而是需要依托一套庞大的组件框架才能发挥作用。这套框架主要由以下核心部分构成:
- 首先是LLMs(大型语言模型),它赋予了 AI Agent 推理分析的能力;
- 其次是工具(Tools),作为完成任务的得力助手,辅助 Agent 高效达成目标;
- 最后是记忆(Memory),借助这一组件,Agent 得以从过往经历中汲取经验,不断优化自身的响应机制,实现能力进阶。
2.1、推理(Reasoning)
AI 代理的卓越性能,源于其独特的迭代推理能力 —— 在处理问题的全流程中,持续进行深度 “思考”。这项能力的根基是底层的大语言模型(LLM),并由此衍生出规划与反思两大核心功能。
- 规划(Planning):AI代理擅长将复杂任务抽丝剥茧。通过任务分解,它能把庞大的难题拆解成一个个清晰、可操作的子步骤,确保任务执行有条不紊,同时还能依据不同需求灵活调用适配工具。在查询处理方面,它同样具备将复杂指令拆解为简单子查询的能力,以此大幅提升大语言模型响应的精准度与稳定性。
- 反思(Reflecting):反思机制则是 AI代理优化决策的关键。它会对已完成的行动结果进行复盘,结合外部数据反馈,动态调整后续策略,让每一次决策都更贴合实际需求。
2.2、工具(Tools)
鉴于 LLM(大语言模型)的知识储备局限于训练阶段形成的静态参数化知识,为突破这一限制拓展其功能边界,AI 代理可借助多种外部工具实现能力延伸,具体如下:
工具类型 | 功能概述 |
---|---|
互联网搜索 | 抓取并提炼实时资讯 |
向量搜索 | 检索分析外部数据并生成摘要 |
代码解释器 | 运行 AI 代理生成的代码指令 |
API | 接入外部服务完成特定任务 |
LLM 在执行任务时,通过 ** 函数调用(Function Calling)** 机制选择适配工具,从而突破单纯文本生成的范畴,实现与现实场景的交互操作。
工具的选用策略分为两种:一是由用户提前预设,二是由代理根据任务需求动态决策。动态选择机制在处理复杂任务时更具优势,而预定义工具则更适合简单工作流程,能够提升执行效率。
2.3、记忆(Memory)
记忆功能是 AI 代理工作流与单纯的大语言模型(LLM)工作流的关键差异点。通过记忆,AI 代理能够在多次用户交互与不同会话中留存上下文和反馈信息,进而打造出更贴合用户需求的个性化体验,同时实现长期性能的优化提升。
AI 代理的记忆体系主要包含两类:
-
短期记忆:聚焦记录近期交互数据,例如对话历史,这些信息能辅助代理快速做出下一步行动决策。
-
长期记忆:负责存储长时间积累的各类信息,支持代理在不同会话间进行学习,从而达成个性化服务,并持续优化自身表现。
3、什么是Agent工作流?
通常而言,工作流(Workflow) 是指一系列彼此关联的流程步骤,其目的在于达成特定的任务或目标。最为基础的工作流属于确定性(Deterministic)类型,这类工作流严格遵循预先设定的步骤顺序,面对新信息或环境变化时缺乏灵活应变能力。以自动化报销审批工作流为例,若费用类别标注为 “餐饮”,且金额不超过 30 美元,系统便会自动完成审批流程。
不过,部分工作流借助大型语言模型(LLMs)或其他机器学习模型实现功能强化。这类工作流通常被称作 AI 工作流,可进一步细分为 代理型(Agentic) 与非代理型(Non-Agentic) 两类:
-
非代理型 AI 工作流:大型语言模型依据输入指令生成相应输出。以文本摘要工作流为例,其运作流程为:获取长文本 → 由 LLM 进行内容提炼 → 输出精简后的摘要。这种工作流程单纯依赖 LLM 的文本处理功能,不具备自主判断与任务执行特性,因而不属于代理型工作流范畴。
-
代理型 AI 工作流:由一个或多个AI 代理(Agents)以动态方式执行一系列操作步骤,进而完成特定任务。在用户赋予的权限边界内,AI 代理拥有一定程度的自主行动能力,能够主动收集数据、执行任务并做出决策。此外,代理型工作流充分发挥 AI 代理的推理分析能力、工具调用能力以及记忆留存能力,让传统工作流得以升级,具备更强的响应速度、环境适应能力与自我迭代进化能力。
4、Agent工作流组成
若想让 AI 工作流成为代理型工作流,至少需具备以下三大核心特性:
-
规划任务流程 代理型工作流以任务规划为起点。大语言模型(LLM)承担任务拆解职责,将复杂任务细分成多个子任务,并规划出最优化的执行路线。
-
借助工具执行 代理型工作流调用预先设定的工具,涵盖 API 接口、数据库、搜索引擎等,同时结合配套的权限管控机制,依循规划方案完成各项任务。
-
复盘优化迭代 代理会在每个工作环节对执行结果进行评估,若未达预期便及时修正计划,通过不断循环执行,直至达成理想成果。
4.1、三种工作流
工作流可划分为三种不同类别:
类别 | 特性 |
---|---|
传统非人工智能工作流 | 遵循固定规则运行,依照预先设定的步骤执行任务,难以应对环境变化。 |
非代理式人工智能工作流 | 借助大语言模型(LLM)完成任务,但缺乏动态决策能力与自主执行特性。 |
代理式人工智能工作流 | 依靠人工智能代理灵活执行任务,能够根据实际情况自主决策并适应变化。 |
它们之间的关键差异在于:
-
人工智能工作流与传统工作流:前者依赖人工智能模型驱动,后者则依赖预先制定的执行步骤。
-
代理式与非代理式人工智能工作流:代理式人工智能工作流运用动态人工智能代理实现任务处理,相比之下,非代理式人工智能工作流仅依靠静态人工智能模型完成任务。
由此可见,代理式工作流在动态响应和环境适应能力上,显著优于非代理式人工智能工作流。
4.2、Agent架构和Agent工作流区别
伴随技术的迭代更新,专业术语也在持续推陈出新。“代理架构”与“代理工作流” 这两个概念常被人们混淆使用,然而,它们在本质上存在显著差异。
术语 | 定义 |
---|---|
代理工作流 | 涵盖任务拆解、工具调用、成果复盘等环节,是代理完成任务的一系列有序步骤。 |
代理架构 | 作为支撑代理运行的技术体系与系统规划,整合了决策代理、工具组件,以及短期和长期记忆模块。 |
代理工作流聚焦于任务的执行路径,着重体现代理分解任务、运用工具、优化策略的具体过程;而代理架构则围绕系统构建,强调搭建包含代理实体、工具资源和记忆系统的完整框架体系。
5、Agent工作流模式
回顾一下,代理工作流(Agentic Workflow)指的是代理为完成特定任务(最终目标)所采取的一系列结构化步骤。因此,当讨论代理工作流时,实际上是在讨论代理实现最终目标的特定行为模式。
此前提到的AI代理核心组件在代理工作流模式中起着关键作用:
- 推理能力(Reasoning) 促进规划模式(Planning Pattern) 和反思模式(Reflection Pattern) 的实现;
- 工具使用能力(Tool Use) 是工具使用模式(Tool Use Pattern) 的基础。
5.1. 规划模式(Planning Pattern)
规划模式 使代理能够自主地将复杂任务拆解为一系列更小、更简单的子任务,这一过程称为任务分解。任务分解能够提高工作流的质量,具体来说它可以:降低 LLM 的认知负荷,减少其计算压力;提升推理能力,增强问题解决能力;减少幻觉(Hallucination)和其他不准确性,提高输出的可靠性。
当目标达成的路径模糊不清,且解决问题的过程需要灵活应变时,规划模式往往能发挥出巨大效用。以 AI 代理处理软件 bug 修复任务为例,它会将这一复杂任务拆解为多个有序步骤:首先仔细研读 bug 报告,从中捕捉关键信息;接着精准定位相关代码片段;随后基于专业逻辑,梳理出可能导致错误的原因清单;再结合实际情况,挑选适配的调试策略;然后运行修复代码,密切观察错误信息反馈。一旦修复失败,便及时调整方案,重新尝试。
尽管规划模式能助力代理攻克复杂任务,但相比确定性工作流,它产生的结果往往更具不确定性。正因如此,规划模式尤其适用于那些需要深度推理与多步推演的复杂任务场景。
5.2. 工具使用模式(Tool Use Pattern)
生成式大语言模型(LLM)存在一项明显短板:其回答内容仅能依托已有的训练数据生成,既无法实时检索最新信息,也不能对事实进行验证。正因如此,LLM 容易出现生成错误信息的 “幻觉” 现象,面对不确定的问题时,甚至会 “猜测” 答案。为攻克这一难题,检索增强生成(RAG)技术应运而生,它通过引入相关的实时外部数据,提升 LLM 响应的准确性。不过,RAG 目前仅能实现数据检索功能,尚无法支持模型与外部环境的动态交互。
工具使用模式 则进一步拓展了代理的能力,使其能够与外部系统动态交互,而不仅仅是被动地检索数据。工具使用模式适用于需要实时数据支持或依赖外部资源的任务,例如:在网页上搜索最新新闻;从数据库中获取用户历史记录;自动发送电子邮件。以下列举一些常用的工具及用途。
工具 | 用途 |
---|---|
API | 访问外部服务,执行任务 |
信息检索(如向量搜索) | 获取外部数据库中的相关信息 |
Web 浏览器 | 进行网络搜索,获取最新信息 |
机器学习模型 | 调用外部 AI 模型,增强能力 |
代码解释器 | 运行代码,实现自动化计算 |
5.3. 反思模式(Reflection Pattern)
反思模式 是一种自我反馈机制,代理在采取最终行动前,会迭代评估自己的输出质量或决策,并据此优化自身的推理过程。这个过程可以帮助代理:纠正错误,减少不准确性;持续改进,提高决策质量;增强适应性,更好地满足用户需求。
反思模式对于那些一次执行难以成功的任务特别有用,例如代码生成:
- 代理生成代码片段;
- 在沙盒或执行环境中运行代码;
- 获取错误信息,并将其反馈给 LLM;
- 让 LLM 迭代优化代码,直到成功执行。
反思的力量在于代理能够批评自己的输出并将这些见解动态地整合到工作流程中,从而实现持续改进而无需直接人工反馈。这些反思可以编码在代理的内存中,从而允许在当前用户会话期间更有效地解决问题,并通过适应用户偏好实现个性化并改善未来的交互。
6、Agent工作流应用场景
原子设计模式(Atomic Design Patterns) 涵盖规划(Planning)、工具使用(Tool Use)等多种类型,将它们灵活组合,能助力代理 AI 在不同领域高效处理各类任务。除了模式组合,AI 代理还拥有多样的工具组合方案,可根据任务需求动态选择工具;通过引入人类反馈回路,能更精准地把握任务目标,同时赋予其不同级别的自主性与决策权。
凭借这些丰富的配置选项,代理工作流得以满足众多行业的差异化需求。其中,代理 RAG(Agentic RAG)、代理研究助手(Agentic Research Assistants)、代理编码助手 这三大应用场景,堪称其实际应用中的经典范例。
6.1. Agentic RAG
检索增强生成(RAG) 是一种通过外部数据增强 LLM 生成能力的框架。而代理RAG 则在 RAG 流程中引入一个或多个 AI 代理,使其更加智能和动态。
具体来说:
在规划阶段(Planning Phase):代理可以将复杂查询拆解为更小的子查询(查询分解,Query Decomposition)并判断是否需要向用户请求额外信息以更精准地完成任务。
在数据检索和评估阶段:代理可以评估检索到的数据的相关性和准确性,避免提供无用或错误的信息。当查询结果不满意,代理可以重新调整查询,回到查询分解阶段,甚至制定新的查询方案。
6.2. 代理研究助手
AI 企业常将代理研究助手(Agentic Research Assistants)称作“深度研究(Deep Research)”,这类工具专注于产出深度报告,挖掘复杂议题的详尽见解。不同于普通检索工具,它以代理 RAG 技术为基石,不仅能获取信息,更擅长深度分析与数据整合,带来更具价值的研究成果。
通过以下对比,能清晰看出代理研究助手与传统 RAG 的差异:
特性 | 传统 RAG | 代理研究助手 |
---|---|---|
信息处理 | 单纯从外部源检索信息 | 检索、分析、综合多维度信息 |
查询灵活性 | 固定查询,缺乏动态调整 | 依任务需求灵活优化查询策略 |
交互模式 | 被动返回查询结果 | 主动与用户沟通,明确任务意图 |
研究策略 | 无自主调整能力 | 动态切换检索方向,挖掘新线索 |
数据整合 | 单次查询单一结果 | 整合多源数据,提炼发展趋势 |
在实际运作中,代理研究助手依赖经网页浏览、任务拆解、动态规划等功能专项优化的大语言模型。它会主动向用户询问补充信息,精准锚定研究目标;还能依据已获取的信息,灵活调整研究路径,拓宽探索维度,保障数据完整性。
凭借识别趋势、构建系统化认知的能力,代理研究助手可对数据进行跨周期分析,生成详实的研究报告,大幅提升科研效率,缩减人工检索与分析耗时。目前,OpenAI、Perplexity、Google 等科技巨头均已推出自家的深度研究产品。
6.3. 代理编码助手
代理编码助手(Agentic Coding Assistants)能够在极少人工介入的情况下,独立完成代码生成、重构、优化与调试工作,还支持创建拉取请求(PR)和提交代码,显著提升团队协作效率。与之形成对比的是,非代理型编码助手(例如 GitHub Copilot 的早期版本),功能局限于代码生成,缺乏与开发环境交互和自适应调整的能力。
代理编码助手的核心特性主要体现在以下几个方面:
-
执行与迭代优化:这类助手不仅可以生成代码,还能直接运行代码,并依据执行过程中出现的错误信息,不断进行迭代改进。
-
代码库自动化管理:
-
代理能够自动创建代码提交(Commits)和拉取请求(Pull Requests),大幅简化软件开发流程,像 Anthropic Claude Code 就具备此功能。
-
同时,部分代理在执行操作前会主动征求用户确认,以此保障人类对关键决策的主导权,Cursor 的 Agent 便是如此。
- 长期记忆与智能提升:代理具备 “记忆” 能力,能够记住过往任务中的错误,并基于这些经验自我优化,从而在后续任务中展现出更高的智能水平。
7、Agent工作流实际应用案例
在介绍了代理工作流的应用场景后,这里再探讨两个实际代理系统的工作流:**Claygent(Clay)**和 ServiceNow AI Agents。每个代理工作流都采用了独特的模式和工具组合,赋予代理不同程度的自主性和决策能力,并依赖于不同水平的人类反馈和参与。
Claygent 是一家数据丰富化和外联自动化公司推出的 AI 研究代理,主要服务于增长团队和销售团队,帮助他们解决潜在客户研究和数据丰富化的繁琐任务。其工作流程以丰富 LinkedIn 个人资料并发送个性化介绍消息为例:
- 用户输入包含姓名和电子邮件的名单,并指定所需数据字段(如工作经历、教育背景、技能)。
- 代理使用预配置的提示模板格式化查询,通过 LLM 处理查询并利用网络爬取工具在 LinkedIn 上搜索相关网址,从个人资料中提取所需数据。
- 随后,代理可以调用另一个 LLM 来总结或分析获取的数据,并生成个性化的外联消息以适应每个潜在客户。
Claygent具备灵活可定制的工作流,用户可以创意性地定制任务;预配置提示模板确保代理遵循特定任务目标,提升结果质量;以及多代理协作,不同 LLM 处理不同任务(数据抓取、分析、个性化消息)。
ServiceNow AI Agents 是 ServiceNow 云平台新增的功能,专注于自动化 IT、运营、HR 和客户服务领域中的重复性任务,优化已有工作流,同时确保最终决策权掌握在人类手中。以处理技术支持工单为例:
- 用户提交工单后,代理工作流被触发。代理调用 RAG(检索增强生成)技术,在内部 IT 支持知识库中搜索相关信息,并总结检索结果,分析类似案例。
- 随后,代理创建一份供 IT 专家阅读的摘要,涵盖问题和可能的解决方案,并生成行动建议,由 IT 支持专家进行审批或拒绝。
ServiceNow AI Agents具备人机协作,代理只辅助 IT 专家而不直接执行决策;安全可控,代理只能执行有限范围内的任务,避免影响最终用户或客户体验;以及结构化工作流,代理严格遵循预定义的规则,减少意外行为。
8、Agent工作流优缺点
AI代理迅速从机器学习社区走向主流。考虑到围绕代理AI的兴奋、期待和期望,分清炒作与现实之间的差距,理解其真正的能力与局限性变得困难。在本节中,将为您提供关于Agentic工作流的优势、挑战与局限性的全面视角。
8.1、Agent工作流的优势
Agentic工作流通过使AI代理能够规划、适应和随着时间推移不断改进,超越了传统的自动化。与遵循固定规则的确定性工作流不同,Agentic工作流能够动态响应复杂性,通过反馈精细调整其方法,并扩展以处理更复杂的任务。这种适应性使它们在需要灵活性、学习和决策的场景中尤为重要。
Agentic工作流的优势:
- 灵活性、适应性和可定制性。静态、确定性的工作流难以适应不断变化的情况和意外的困难。另一方面,Agentic工作流提供了根据任务难度进行调整和演化的灵活性,确保它们始终保持相关性并提供最佳解决方案。通过结合不同的模式,它们还可以定制,提供模块化设计,使得随着需求和复杂性的增加能够进行迭代升级。
- 在复杂任务上的表现改进。通过将复杂任务分解为更小的可管理步骤(通过任务分解和规划),Agentic工作流在处理复杂任务时显著优于确定性、零样本的做法。
- 自我纠正和持续学习。反思模式允许Agentic工作流评估自身行为,改进策略,并随着时间推移提升结果。利用短期和长期记忆,它们通过过去的经验学习,使每次迭代变得更加高效和个性化。
- 操作效率和可扩展性。Agentic工作流可以高精度地自动化重复性任务(如果设计得当),减少手动操作和特定场景中的运营成本。它们也能轻松扩展,适用于处理更大工作负载或复杂系统。
需要注意的是,AI代理仍然是新兴技术,随着研究人员和用户发现将代理融入工作流的新方式,以上优势列表可能会不断扩展。
8.2、Agent工作流局限性
尽管具有诸多优势和创新功能,AI代理也存在一些挑战和局限性。由于其概率性质,AI代理本质上为工作流增添了复杂性。仅仅因为代理可以用于自动化流程,并不意味着它们应该被使用。以下是Agentic工作流的一些显著挑战和局限性:
- 对于简单任务的过度复杂性。在用于简单工作流(如表单输入或基本数据提取)时,AI代理可能会增加额外的开销。在确定性、基于规则的自动化足够的情况下,引入代理可能会导致低效、额外费用,甚至可能降低性能。
- 随着自主性增加导致可靠性降低。随着代理在工作流中获得更多的决策权,其概率性质可能会引入不可预测性,使得输出不太可靠且更难控制。实施并持续维护代理的防护措施,并定期审查其授权权限至关重要。
- 伦理和实践考量。并非所有决策都应委托给AI系统。在高风险或敏感领域使用代理时,需要谨慎监督,以确保负责任的部署并防止意外后果。
鉴于这些局限性,建议在使用代理之前,花时间反思其是否在特定工作流中确实必要。以下问题可以帮助您做出判断:
- 任务是否足够复杂,需要适应性决策,还是确定性方法足够?
- 简单的AI辅助工具(如没有代理的RAG)能否达到相同的效果?
- 工作流是否涉及不确定性、变化条件或多步推理,代理能更有效地处理这些问题吗?
- 给予代理自主性带来的风险是什么,能否有效降低这些风险?
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】

GitCode 天启AI是一款由 GitCode 团队打造的智能助手,基于先进的LLM(大语言模型)与多智能体 Agent 技术构建,致力于为用户提供高效、智能、多模态的创作与开发支持。它不仅支持自然语言对话,还具备处理文件、生成 PPT、撰写分析报告、开发 Web 应用等多项能力,真正做到“一句话,让 Al帮你完成复杂任务”。
更多推荐
所有评论(0)