搭积木式开发AI应用!可视化LangChain开发神器,支持一键导出Python代码,5分钟搭建ChatGPT插件
用户可以使用 Python 代码对组件进行自定义。
⌨️ 「还在手写LangChain?这个可视化工具让AI应用开发像搭积木一样简单!」
你是否经历过——
-
👉 调试Chain时在数十个Python文件间疯狂跳转
-
👉 想快速验证RAG方案却被向量数据库配置劝退
-
👉 向老板演示原型时发现Agent逻辑存在循环依赖…
今天要介绍的 LangFlow ,正是解决这些痛点的终极武器!这个由Python驱动的可视化开发平台,让你通过拖拽组件就能构建多Agent系统,内置RAG流水线、实时调试面板、一键导出Python代码。已经有团队用它把POC开发周期从2周缩短到2天——准备好迎接AI工程化的范式革命了吗?
🚀 快速阅读
LangFlow 是一款低代码、可视化的 AI 应用构建工具,用于快速搭建和实验 LangChain 流水线。
-
核心功能:通过拖拽组件创建复杂的 AI 工作流,支持多代理对话管理和 RAG(检索增强生成)应用。
-
技术原理:基于有向无环图(DAG)的执行引擎,确保工作流的高效执行和结果的正确性。
LangFlow 是什么
Langflow
LangFlow 是一款低代码、可视化的 AI 应用构建工具,专为快速搭建和实验 LangChain 流水线而设计。通过拖拽式界面,用户可以轻松创建复杂的 AI 工作流,无需编写大量代码。它支持多代理对话管理和 RAG(检索增强生成)应用,适用于构建智能聊天机器人、文档分析系统和内容生成工具等场景。
LangFlow 提供了丰富的预构建组件和模板,用户可以通过 Python 代码对组件进行自定义,满足不同场景的需求。此外,用户可以将工作流以 API 形式发布,或导出为 Python 应用程序,方便集成到其他系统中。
LangFlow 的主要功能
-
可视化工作流构建:通过拖拽组件,用户可以轻松创建复杂的 AI 工作流。
-
多代理支持:支持多代理的编排、对话管理和信息检索。
-
Python 自定义:用户可以使用 Python 代码对组件进行自定义。
-
预构建组件:提供数百个预构建的组件和模板,方便快速开始项目。
-
即时测试环境:内置的 Playground 功能允许用户实时测试和迭代工作流。
-
云部署与本地运行:支持在 DataStax Langflow 云平台免费部署,也支持本地运行。
-
API 发布与导出:用户可以将工作流发布为 API 或导出为 Python 应用程序。
-
生态系统集成:支持与 LangSmith、LangFuse 或 LangWatch 等工具集成,提供企业级安全性和可扩展性。
LangFlow 的技术原理
-
基于有向无环图(DAG)的执行引擎:当工作流运行时,LangFlow 会根据组件和连接线构建一个有向无环图(DAG)。DAG 的节点(组件)会按照依赖关系排序并依次执行,每个节点的输出结果会传递给依赖它的下一个节点,确保了工作流的高效执行和结果的正确性。
-
组件化设计与灵活性:LangFlow 的组件化设计支持用户根据需求选择或自定义组件。支持与多种模型、API 和数据库集成,开发者可以轻松扩展和复用组件。LangFlow 提供了数百个预构建的组件,满足不同场景的需求。
-
RAG(检索增强生成)支持:LangFlow 提供了对 RAG 的支持,通过智能文本分块模块将长文档结构化存储到向量数据库中,在查询时通过向量检索快速定位相关信息。
-
Python 驱动与开源特性:LangFlow 基于 Python 开发,完全开源,用户可以通过 Python 完全自定义工作流或扩展功能。
如何安装 Langflow
-
安装 Python 3.10 至 3.12。
-
安装
uv
、pip
或pipx
。 -
uv:https://docs.astral.sh/uv/getting-started/installation/
-
pip:https://pypi.org/project/pip/
-
pipx:https://pipx.pypa.io/stable/installation/
-
建议创建一个虚拟环境来隔离 Python 依赖项。您可以使用
uv
、venv
或conda
创建虚拟环境。 -
uv:https://docs.astral.sh/uv/pip/environments
-
venv:https://docs.python.org/3/library/venv.html
-
conda:https://anaconda.org/anaconda/conda
以下是使用 pip 或 pipx 安装 Langflow 的方法。
1. 使用 uv 安装 Langflow
运行以下命令:
uv pip install langflow
2. 使用 pip 安装 Langflow
运行以下命令:
python -m pip install langflow
3. 使用 pipx 安装 Langflow
运行以下命令:
pipx install langflow --python python3.10
如何运行 Langflow
安装完成后,您可以根据以下步骤运行 Langflow。
1. 使用 uv 运行 Langflow
运行以下命令:
uv run langflow run
2. 使用 pip 运行 Langflow
运行以下命令:
python -m langflow run
访问 http://127.0.0.1:7860 确认本地实例已启动。
3. DataStax Langflow 快速启动
DataStax Langflow 是 Langflow 的托管版本,集成了 Astra DB
。无需安装或设置,即可在几分钟内启动并运行。您可以免费注册
。
-
Astra DB:https://www.datastax.com/products/datastax-astra
-
免费注册:https://astra.datastax.com/signup?type=langflow
快速上手 Langflow
准备就绪
在开始之前,请确保您已准备好以下内容:
1. OpenAI API 密钥
您需要一个有效的 OpenAI API 密钥
,以便与 OpenAI 模型进行交互。
- OpenAI API:https://platform.openai.com/
2. Astra DB 向量数据库
您还需要一个 Astra DB 向量数据库
,其中包括:
-
AstraDB 应用程序令牌
-
在 Astra 中创建的集合(用于存储向量数据)
-
Astra DB 向量数据库:https://docs.datastax.com/en/astra-db-serverless/get-started/quickstart.html
打开 Langflow 并创建新项目
1. 打开 Langflow 并创建新流程
从 Langflow 仪表盘中,点击 New Flow,然后选择 Blank Flow。这将打开一个空白工作区,您可以在其中构建流程。
”
2. 选择 Basic Prompting
点击 Basic Prompting,系统将为您创建一个基础的提示流程。
构建基础提示流程
完成的基础提示流程应如下所示:
starter-flow-basic-prompting
1. 添加 Chat Input 组件
点击 Inputs,选择 Chat Input 组件,并将其拖放到画布上。此组件用于接受用户输入。
2. 添加 Prompt 组件
点击 Prompt,选择 Prompt 组件,并将其拖放到画布上。此组件用于将用户输入与自定义提示结合。
3. 添加 Chat Output 组件
点击 Outputs,选择 Chat Output 组件,并将其拖放到画布上。此组件用于输出流程的结果。
4. 添加 OpenAI 模型组件
点击 Models,选择 OpenAI 模型组件,并将其拖放到画布上。此组件用于将用户输入和提示发送到 OpenAI API,并接收响应。
此时,您的流程应如下所示:
quickstart-basic-prompt-no-connections
5. 连接组件
为了使数据从 Chat Input 流向 Chat Output,需要将组件连接起来:
-
从 Chat Input 的 Message 端口拖动到 OpenAI 组件的 Input 端口。
-
从 Prompt 的 Prompt Message 端口拖动到 OpenAI 组件的 System Message 端口。
-
从 OpenAI 组件的 Text 端口拖动到 Chat Output 的 Text 端口。
完成连接后,您的流程应如下所示:
starter-flow-basic-prompting
运行基础提示流程
1. 配置 OpenAI 组件
在 OpenAI 组件中添加您的 OpenAI API 密钥。最快的配置方法是使用 Langflow 的 Global Variables:
-
在 OpenAI API Key 字段中,点击 Globe 按钮,然后点击 Add New Variable。
-
输入变量名称,并将您的 OpenAI API 密钥粘贴到 Value 字段中。
-
在 Apply To Fields 字段中,选择 OpenAI API Key,以将此变量应用到所有 OpenAI Embeddings 组件。
2. 配置 Prompt 组件
在 Prompt 组件中,点击 Template 字段,并输入您的提示。例如:
作为一位生成式 AI 专家,热情地帮助用户构建全新的东西。
3. 启动聊天会话
点击 Playground,开始一个聊天会话。输入查询,并确保机器人根据您设置的提示进行响应。
为应用程序添加向量 RAG
您已经创建了一个聊天机器人,但让我们尝试一个实验:
-
向机器人提问:
2024 年谁获得了奥斯卡最佳影片奖?
-
机器人可能会回答:
抱歉,我无法获取 2023 年 10 月之后的事件或奖项信息,包括 2024 年的奥斯卡奖。
为了解决这一问题,您可以使用 检索增强生成(RAG),加载更及时的数据。
使用 Astra DB 组件添加向量 RAG
1. 断开现有连接
双击 Chat Input 和 OpenAI 组件之间的连接线,断开连接。
2. 添加 Astra DB 组件
点击 Vector Stores,选择 Astra DB 组件,并将其拖放到画布上。
3. 添加 File 组件
点击 Data,选择 File 组件,并将其拖放到画布上。此组件用于从本地加载文件。
4. 添加 Split Text 组件
点击 Processing,选择 Split Text 组件,并将其拖放到画布上。此组件用于将加载的文本拆分为更小的片段。
5. 添加 Parse Data 组件
点击 Processing,选择 Parse Data 组件,并将其拖放到画布上。此组件用于将数据转换为纯文本。
6. 添加 OpenAI Embeddings 组件
点击 Embeddings,选择 OpenAI Embeddings 组件,并将其拖放到画布上。此组件用于生成用户输入的嵌入,并将其与数据库中的向量数据进行比较。
7. 连接组件
将新组件连接到现有流程中,使流程如下所示:
quickstart-add-document-ingestion
8. 配置 Astra DB 组件
在 Astra DB 组件中:
-
在 Astra DB Application Token 字段中添加您的 Astra DB 应用程序令牌。
-
选择您的数据库。
-
选择您的集合(如果没有集合,请参考
DataStax Astra DB Serverless 文档
创建一个集合)。 -
选择 Embedding Model,并确保其维度与集合的维度匹配。
-
DataStax Astra DB Serverless 文档:https://docs.datastax.com/en/astra-db-serverless/databases/manage-collections.html#create-collection
运行带有检索上下文的聊天机器人
1. 修改 Prompt 组件
在 Prompt 组件中,添加 {user_question}
和 {context}
变量:
根据以下上下文:
{context}
回答以下问题:
{user_question}
2. 上传文件
在 File 组件中,上传一个包含您希望加载到 Astra DB 数据库中的数据的文本文件(例如,一个关于奥斯卡获奖者的最新 CSV 文件)。
3. 启动聊天会话
点击 Playground,开始一个聊天会话。
4. 测试机器人
向机器人提问:2024 年谁获得了奥斯卡最佳影片奖?
机器人应返回类似以下的回答:
2024 年奥斯卡最佳影片奖授予了《奥本海默》,由 Emma Thomas、Charles Roven 和 Christopher Nolan 制作。
安装 Langflow 的常见问题
以下是安装和运行 Langflow 时可能遇到的一些问题及其解决方案。
1. 没有 langflow.__main__
模块
运行 langflow run
时,可能会遇到以下错误:
No module named 'langflow.__main__'
解决方案:
-
使用
python -m langflow run
代替langflow run
。 -
如果无效,重新安装最新版本的 Langflow:
python -m pip install langflow -U
- 如果仍然无效,强制重新安装 Langflow 及其依赖项:
python -m pip install langflow --pre -U --force-reinstall
2. Langflow 运行时错误
运行 langflow run
时,可能会遇到以下错误:
langflow runTraceback (most recent call last):
File ".../langflow", line 5, in <module>
from langflow.__main__ import main
ModuleNotFoundError: No module named 'langflow.__main__'
可能原因及解决方案:
- 如果系统中已安装旧版本的 Langflow,可能运行了错误的可执行文件。尝试使用
python -m langflow run
。如果无效,卸载并重新安装 Langflow:
python -m pip install langflow --pre -U
- 如果安装过程中出现版本冲突,强制重新安装 Langflow 及其依赖项:
python -m pip install langflow --pre -U --force-reinstall
3. 迁移过程中出现问题
运行时可能会遇到以下错误:
Something went wrong running migrations. Please, run 'langflow migration --fix'
解决方案:
-
删除缓存文件夹中的内容以清除缓存,如果需要保留文件,请在清除文件夹前备份。缓存文件夹位置如下:
-
Linux 或 WSL2 on Windows:
home/<username>/.cache/langflow/
-
MacOS:
/Users/<username>/Library/Caches/langflow/
4. pip 依赖解析冻结
使用 pip install langflow
安装时,可能会遇到以下错误:
pip is looking at multiple versions of <<library>> to determine which version is compatible with other requirements. This could take a while.
解决方案:
- 使用 uv 安装 Langflow:
uv pip install langflow
- 运行 Langflow:
uv run langflow run
如何更新 Langflow
1. 升级 Langflow
使用 uv 升级 Langflow:
uv pip install langflow -U
使用 pip 升级 Langflow:
python -m pip install langflow -U
2. 安装特定版本
安装指定版本的 Langflow:
python -m pip install langflow==1.1
3. 重新安装 Langflow
重新安装 Langflow 及其依赖项:
python -m pip install langflow --force-reinstall
资源
-
GitHub 仓库:https://github.com/langflow-ai/langflow
-
文档:https://docs.langflow.org
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】

GitCode 天启AI是一款由 GitCode 团队打造的智能助手,基于先进的LLM(大语言模型)与多智能体 Agent 技术构建,致力于为用户提供高效、智能、多模态的创作与开发支持。它不仅支持自然语言对话,还具备处理文件、生成 PPT、撰写分析报告、开发 Web 应用等多项能力,真正做到“一句话,让 Al帮你完成复杂任务”。
更多推荐
所有评论(0)