AxonHub项目旨在简化AI模型集成与开发流程。其核心能力包括OpenAI/Anthropic请求格式的互转,让开发者仅需接入一种格式即可适配多种模型,从而降低开发成本。项目提供完善的控制面板,支持渠道、权限、用户及API Key管理。特别地,它增强了Vercel ai-sdk在Go后端框架下的支持,使Go团队也能利用这一热门的chatbot/agent开发框架。此外,AxonHub还具备Prompt监控与调试功能,方便记录和排查请求与响应问题。对于Claude-code优化,AxonHub支持一次配置、多模型(如DeepSeek, glm-4.5, kimi-k2)的快速切换,通过API Key profiles实现。
🔄 **模型请求格式互转**:AxonHub支持OpenAI和Anthropic请求格式之间的相互转换,这意味着开发者只需要学习和集成一种API请求格式,就能轻松对接包括DeepSeek、glm-4.5、kimi-k2在内的多种大语言模型,极大地降低了多模型集成的开发复杂度和成本。
🖥️ **全面的管理控制面板**:项目提供了一个功能完善的控制面板,集成了渠道管理、权限控制、用户管理以及API Key管理等核心功能。这使得开发者能够在一个集中的界面上高效地管理其AI服务的所有关键方面,确保了系统的安全性和可操作性。
🚀 **Vercel ai-sdk Go后端支持**:针对当前流行的Vercel ai-sdk,AxonHub特别为其添加了Go语言后端的支持。这使得习惯于使用Go进行后端开发的团队,也能充分利用ai-sdk的强大功能来加速chatbot和agent应用的开发,打破了原有的Node.js生态限制。
🔍 **Prompt监控与调试**:AxonHub内置了Prompt监控和调试功能,能够详细记录请求(Request)和响应(Response)的内容。这对于开发过程中的问题排查和模型调优至关重要,开发者可以方便地回顾和分析每一次模型交互,提高开发效率和模型表现。
🎛️ **Claude-code模型切换优化**:通过API Key profiles的配置,AxonHub实现了Claude-code的优化支持。开发者可以一次性配置多个API Key及其对应的模型配置文件,然后在服务端根据需要随时快速切换到不同的模型(如DeepSeek, glm-4.5, kimi-k2),为A/B测试和动态模型选择提供了极大的便利。
项目地址: https://github.com/looplj/axonhub
感兴趣的可以看看,觉得有用的话,欢迎点个✨。
详细介绍一下核心能力:
OpenAI/Anthropic 请求格式互转,业务开发只要接一种格式,就可以对接各种不同的模型,减少开发成本完善的控制面板,渠道管理,权限控制,用户管理,API Key 管理等Vercel ai-sdk 请求格式支持; ai-sdk 是当前比较火热的 chatbot/agent 开发框架,但是官方后端只有 node ;本项目添加 ai-sdk 的格式支持,可以让后端用 Go 的团队,也用上 ai-sdk ,加速开发Prompt 监控,debug ,支持保存 Request 以及 Response 内容,方便排查问题claude-code 优化支持,只要配置一次 claude-code ,然后可以在服务端随时切换模型,快速切换 DeepSeek, glm-4.5, kimi-k2 等;主要的实现方式是 API Key 有多个 profile 可以根据需要快速切换不同的 profile ,每个 profile 可以配置使用不同的模型。
其实类似项目,已经挺多的了;为什么自己要重新造轮子呢,有几个原因:
目标用户一样,本项目的目标用户是 AI 产品开发者,而不是中转商技术风格不一样,不习惯已有项目的代码风格,技术选型等;本项目核心代码都有单测覆盖;技术选型:后端:Go + ent + gqlgen前端:React + TypeScript + Shadcn + Graphql
未来规划:
Trace ,类似 Langfuse, opik, LangWatch ,trace 同一个业务流程多次 AI 调用;但是是服务端实现,减少客户端侵入Prompt Evaluation ,修改了 prompt 可以批量自动化回归是否有问题Agent 开发支持等
更多信息大家可以看看项目 README ,有什么其他问题的欢迎提问或者创建 issue 。