luler 一、简介 One API是一个使用go语言开发的大语言模型 API 管理与分发系统 支持Docker一键快速部署,且资源占用小,高性能 开箱支持多平台大模型快速接入,包括OpenAI、Gemini、xAI、Grop、Anthropic Claude、Ollama、Deepseek、智谱AI、豆包、文心一言等等 功能强大,支持多机部署、stream 模式、模型负载均衡、令牌用户等资源管理等等 开源地址参考:https://github.com/songquanpeng/one-api,工作原理图参考: 二、安装 1. 安装方式一:在主机上使用Docker安装 新建docker-compose.yml配置文件,内容如下 version: '3' services: one-api: image: justsong/one-api:latest privileged: true container_name: one-api restart: always command: --log-dir /app/logs ports: - "3000:3000" volumes: - ./data:/data - ./logs:/app/logs environment: - SESSION_SECRET=HSFGJFSFMNWVSDV # 修改为随机字符串 - TZ=Asia/Shanghai 使用docker-compose命令启动,输入如下命令: docker-compose up -d 2. 安装方式二:使用免费的Claw Cloud容器部署 如何免费使用Claw Cloud参考:https://blog.luler.top/d/29 新增一个应用,选择配置如下: 启动运行,部署成功后即可访问分配的公网地址使用了 三、使用示例 1. 在One API后台管理模型渠道 这里以Claw Cloud部署分配的地址为例,访问:https://bmyufvujccew.ap-northeast-1.clawcloudrun.com/,默认登录账号密码为:root/123456 添加一个模型渠道,这里以硅基流动为例 可对接入的模型渠道进行管理、测试可用性 2. 管理授权令牌 新增One API模型授权使用令牌 3. 在客户端使用One API接入的模型 统一所有模型,提供 Openai 兼容接口 在Cherry Studio接入One API示例,添加新的模型服务,配置如下 配置成功,就可以正常使用了 4. One API还有很多用法(自行探索) 多模型供应商负载均衡 模型更名、映射转换 指定使用哪个模型渠道(在令牌后面增加"-渠道ID"即可) 模型调用失败重试 等等等 四、总结 使用One API可以帮助统一的编程和管理接口,把所有可用渠道集中到One API管理,统一对外提供Openai兼容接口和授权令牌 能够Docker快速部署,go语言开发性能有保证,且资源占用少,可以迅速接入使用