原创 尹珉 2025-10-23 18:27 上海
小白也能上手的AI workflow教程
如果你想写个agent或者workflow,但是又不想在demo阶段投入太多精力去敲代码;
或者作为公司的运营或者销售,虽然代码能力平平,也想做个自己的workflow。
那么不妨试试低代码可视化平台,通过简单的拖放式 UI 连接生成式 AI 模型的组件,无需编写专业脚本就能构建和修改复杂的AI workflow,并且一键部署集成。
本文将以Langflow+Milvus 为例,带来完整演示。
01
选型思路
LangFlow架构的核心思想是:让画布成为可执行的文档,既是成品也是沟通平台。
过去,搭建一个产品,需要产品经理提需求,架构师设计方案,工程师写代码,串行进行。Langflow 不仅做到了拖拉拽低代码运行,还能让协作变成并行的,通过可视化开发方式,我们甚至可以将试错周期从数周缩短至数小时。
其看得见的部分是画布与节点。前端基于 React Flow 构建,用户拖拽节点、连接数据流,就像搭乐高一样直观。后端则是实时生成 Flow JSON(可以理解为"乐高搭建图纸"),支持导出、版本管理和团队协作。
在这背后,Python 驱动的运行时引擎负责调度 LLM、工具、检索、路由等组件,处理数据流转、状态管理与异常。
此外,LangFlow还有组件库与自定义能力:内置主流 LLM、向量库的适配器,也支持用 Python 写自定义节点。并提供逐步执行、Playground 快速试验,与 LangSmith、LangFuse 等平台集成,方便回放执行链路、追踪性能。
在这个整体架构基础上,我们选择引入Milvus作为我们的向量数据库,存储企业内部的私有数据或者行业知识。
02
五分钟demo演示
演示目标:
使用Langflow官方RAG模板,演示如何用Milvus将本地数据构建向量索引并实现高效上下文增强问答。
环境准备:
1.python3.11或conda
2.uv
3.docker&docker-compose
4.Openai-key
1.部署Milvus向量数据库
下载部署文件
wget <https://github.com/Milvus-io/Milvus/releases/download/v2.5.12/Milvus-standalone-docker-compose.yml> -O docker-compose.yml启动Milvus服务
docker-compose up -d
docker-compose ps -a
2.创建python虚拟环境
conda create -n langflow#激活langflow并进入conda activate langflow3.安装最新的包
pip install langflow -U
4.启动langflow
uv run langflow run
访问langflow
<http://127.0.0.1:7860>5.搭建配置RAG场景
选择官方RAG模板
替换向量数据库
说明:将默认的VDB换成Milvus
左侧输入Milvus并添加
配置Milvus连接信息
说明:只需填写Milvus连接信息即可,其他选项暂时默认。
配置OpenAi的key
6.测试数据准备
说明:使用Milvus2.6版本官方FAQ
https://github.com/milvus-io/milvus-docs/blob/v2.6.x/site/en/faq/product_faq.md
7.第一阶段测试
上传数据库并嵌入Milvus
说明:必须上传2份以上的数据集才能正常嵌入Milvus,这是Langflow官方节点的Bug还未修复。
测试节点状态
8.第二阶段测试
9.综合测试
03
写在最后
整体来说,Langflow低门槛、可视化,上手快,但Langflow并非万能。它更适合快速原型开发、业务逻辑频繁变更的项目、需要跨团队协作的应用、教学和演示场景。
而对性能有极致要求的系统、需要深度定制的底层逻辑、已有大量LangChain代码的成熟项目,可能不是那么适合。
作者介绍
Zilliz黄金写手:尹珉
阅读推荐
DeepSeek-OCR解读:视觉如何成为长上下文压缩的新思路
比LangChain强在哪?Parlant × Milvus动态规则告别agent失控
多少做RAG的人,连分词都搞不定? Milvus Analyzer指南
大模型贵,小模型蠢!vLLM+Milvus+智能路由,无痛降本50%
