掘金 人工智能 08月05日
Coze Studio 快速上手指南
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

字节跳动开源的 Coze Studio(扣子开发平台)为开发者提供了一站式AI智能体开发能力。本文详细介绍了如何利用Docker Compose在本地快速部署Coze Studio,包括其核心组件的配置与启动。同时,文章深入讲解了如何为平台配置外部模型服务,以国产开源模型Qwen3为例,通过修改YAML配置文件,成功集成了新的模型,并验证了其可用性。这为开发者提供了自由定制和扩展AI应用开发环境的实践方法,旨在帮助用户快速上手并充分利用Coze Studio进行智能体开发。

🚀 Coze Studio开源背景与核心功能:字节跳动开源了Coze Studio(扣子开发平台)和Coze Loop(扣子罗盘),采用Apache 2.0协议,提供一站式AI智能体开发能力,支持零代码/低代码方式快速构建和调试智能体、应用及工作流。

🐳 本地部署Coze Studio:文章提供了详细的Docker Compose部署步骤,包括克隆源码、进入docker目录、配置.env文件以及启动所有服务。部署过程涵盖了数据库、缓存、对象存储、向量数据库、消息中间件等多个核心组件的搭建,并说明了初始化服务的退出是正常现象。

🔧 模型服务配置实操:为使Coze Studio能创建智能体,需配置模型服务。本文以集成国产开源模型Qwen3为例,演示了如何复制OpenAI模板文件,修改`id`、`name`、`description`、`meta.capability`、`meta.conn_config.base_url`、`meta.conn_config.api_key`和`meta.conn_config.model`等关键参数,使其兼容魔搭推理API。

💡 模型集成与验证:通过修改OpenAI模型模板并指向魔搭的推理API,成功将Qwen3模型添加到Coze Studio,并在“预览与调试”对话框中验证了模型服务的正常运行,为后续的智能体开发奠定了基础。

相信大家最近都被 Coze 开源的新闻刷屏了吧,作为国内智能体平台的扛把子,字节的这一波操作确实让人猝不及防。Coze 是国内最早一批做智能体平台的,它的很多功能做得确实很不错,用户体验也很赞;但是,随着今年深度搜索和深度研究等概念的兴起,智能体平台的定位有点尴尬,字节本身也把精力投到 扣子空间 这个产品上了,这估计也是字节选择开源 Coze 的一个原因吧。

本次开源包括 Coze Studio(扣子开发平台)Coze Loop(扣子罗盘) 两个核心项目,并采用了 Apache 2.0 许可协议,这意味着开发者可以自由修改甚至闭源商用,这让那些其他的智能体开发平台,比如 Dify,瞬间就不香了。

我也算是 Coze 的老用户了,一直关注着它的最新动态,只要一有新功能推出,我总是第一时间去体验,然后和小伙伴们讨论,猜猜它后端可能是怎么实现的。现在开源了,这不得好好研究下它的代码嘛。

Coze Studio 介绍

根据官网的介绍,Coze Studio 源自 扣子开发平台,是一个一站式 AI 智能体开发平台,通过 Coze Studio 提供的可视化设计与编排工具,开发者可以通过零代码或低代码的方式,快速打造和调试智能体、应用和工作流,实现强大的 AI 应用开发和更多定制化业务逻辑。

它的核心功能包括:

本地部署

Coze 提供了项目所需的所有镜像,使用 Docker Compose 可以快速进行部署。我们首先克隆源码:

$ git clone https://github.com/coze-dev/coze-studio.git

进入 docker 目录:

$ cd coze-studio/docker

这个目录下的 docker-compose.yml 文件定义了部署 Coze 包含的各个组件,包括:

Coze 默认使用 NSQ 作为消息中间件服务,这是一个基于 Go 语言编写的内存分布式消息中间件,包括下面三个组件:

此外,有些组件在部署时需要初始化一些数据,Coze 通过下面这三个组件来初始化:

为什么有两个初始化 MySQL 的服务?可能是为了兼容不同的部署方式,或者是逐步从传统 SQL 到 Atlas 迁移升级。

这个目录下还有一个 .env.example 文件,里面包含大量的项目配置,我们需要将其复制一份出来,另存为 .env 文件:

$ cp .env.example .env

如果你希望修改数据库用户名或密码之类的,可以编辑这个文件,默认情况下不用动。直接 docker compose 启动即可:

$ docker compose --profile "*" up -d

等待所有容器启动完毕:

其中 coze-minio-setupcoze-mysql-setup-schemacoze-mysql-setup-init-sql 这几个容器完成初始化任务后就退出了,因此处于 Exited 状态,是正常现象。

如果一切顺利,通过浏览器访问 http://localhost:8888/ 即可进入 Coze Studio 页面:

输入邮箱和密码,点击注册,进入工作空间:

模型配置

不过这个时候我们还无法使用平台功能,比如创建智能体,会报如下错误:

Coze Studio 是一款基于大模型的 AI 应用开发平台,因此我们还必须配置模型服务。模型配置为 YAML 文件,统一放在 backend/conf/model 目录中,可以存在多个,每个文件对应一个可访问的模型。Coze Studio 支持常见的模型服务,如 OpenAI、DeepSeek、豆包等,为方便开发者快速配置,Coze Studio 在 backend/conf/model/template 目录下提供了常见模型的模板文件:

$ tree backend/conf/model/template backend/conf/model/template├── model_template_ark.yaml├── model_template_ark_doubao-1.5-lite.yaml├── model_template_ark_doubao-1.5-pro-256k.yaml├── model_template_ark_doubao-1.5-pro-32k.yaml├── model_template_ark_doubao-1.5-thinking-pro.yaml├── model_template_ark_doubao-1.5-thinking-vision-pro.yaml├── model_template_ark_doubao-1.5-vision-lite.yaml├── model_template_ark_doubao-1.5-vision-pro.yaml├── model_template_ark_doubao-seed-1.6-flash.yaml├── model_template_ark_doubao-seed-1.6-thinking.yaml├── model_template_ark_doubao-seed-1.6.yaml├── model_template_ark_volc_deepseek-r1.yaml├── model_template_ark_volc_deepseek-v3.yaml├── model_template_basic.yaml├── model_template_claude.yaml├── model_template_deepseek.yaml├── model_template_gemini.yaml├── model_template_ollama.yaml├── model_template_openai.yaml└── model_template_qwen.yaml

可以看到,除了字节自家的豆包(ARK 表示 火山方舟,豆包系列的大模型都支持),Coze Studio 也内置了 OpenAI、DeepSeek、Claude、Ollama、Qwen、Gemini 等模型的支持。

最近,国产开源模型大爆发,从月之暗面的 Kimi K2、阿里的 Qwen3 到智谱的 GLM 4.5,模型效果一个比一个好。这些模型在魔搭也都上线了:

其中,Qwen3 和 GLM 4.5 都提供了推理 API 可以免费调用,每天 2000 次额度,我们不妨用 Qwen3 来测试一下。魔搭的推理 API 兼容 OpenAI 接口协议,因此我们这里使用 OpenAI 模版,将其复制到 backend/conf/model 目录:

$ cp backend/conf/model/template/model_template_openai.yaml backend/conf/model/model_modelscope_qwen3_coder.yaml

模版文件对各个参数已经有了比较详细的解释,一般来说,大多数参数都不用动,只需要关注其中几个重要参数即可:

更多参数介绍,请参考官方的 模型配置文档

修改后的配置文件内容如下:

然后执行以下命令重启 Coze 服务,使配置生效:

$ docker compose --profile "*" restart coze-server

再次点击创建智能体,此时就可以成功创建了,模型下拉列表可以看到我们配置的模型服务:

在右边的 “预览与调试” 对话框聊上两句,测试下模型服务是否正常:

小结

本文作为 Coze Studio 的快速上手指南,我们首先介绍了 Coze 开源的背景及其核心功能,然后详细讲解了如何使用 Docker Compose 在本地环境中完成部署,并以 OpenAI 兼容模型为例,演示了如何配置和验证模型服务。通过这些步骤,我们成功搭建了一个可用的 Coze Studio 本地开发环境。

至此,一切准备就绪,让我们一起开始 Coze 智能体的探索之旅吧!

欢迎关注

如果这篇文章对您有所帮助,欢迎关注我的同名公众号:日习一技,每天学一点新技术

我会每天花一个小时,记录下我学习的点点滴滴。内容包括但不限于:

目标是让大家用5分钟读完就能有所收获,不需要太费劲,但却可以轻松获取一些干货。不管你是技术新手还是老鸟,欢迎给我提建议,如果有想学习的技术,也欢迎交流!

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Coze Studio AI智能体 本地部署 模型配置 开源
相关文章