部署 OpenWebUI 并接入 Chutes.ai 的完整教程

🚀 部署 OpenWebUI 并接入 Chutes.ai 的完整教程

本文将带你从零开始部署 OpenWebUI(原 Ollama WebUI),并将其无缝接入 Chutes.ai 分布式推理网络,让你的浏览器瞬间变身为一站式 AI 工作台,可直接调用 Chutes 的推理算力节点,实现低延迟、高性能的本地或远程模型交互体验。


一、背景介绍

随着 Chutes.ai 生态的快速发展,越来越多开发者希望将其高性能 GPU 推理能力接入自定义的 Web 界面进行模型交互和可视化。
OpenWebUI 是一个轻量、现代化的开源前端界面,可与多种后端推理引擎(如 Ollama、OpenAI API、vLLM、Chutes API 等)对接。

通过本文,你将实现:

  • ✅ 本地部署 OpenWebUI
  • ✅ 配置连接 Chutes.ai 提供的推理接口
  • ✅ 自定义模型、参数与多用户管理
  • ✅ 打造属于你自己的 AI 控制台

二、环境准备

1. 系统要求

项目 要求
操作系统 Ubuntu 22.04 / Debian 12 / CentOS 9 / macOS / Windows (WSL2)
CPU x86_64 / ARM64 均可
内存 ≥ 4 GB
网络 能访问 Chutes.ai API 端点
软件依赖 Docker + Docker Compose

2. 安装 Docker 与 Compose

1
2
3
4
5
6
7
8
9
10
11
sudo apt update
sudo apt install -y ca-certificates curl gnupg lsb-release

# 安装 Docker
curl -fsSL https://get.docker.com | bash

# 启动 Docker 并设置开机自启
sudo systemctl enable --now docker

# 安装 Docker Compose 插件
sudo apt install docker-compose-plugin -y

检查安装结果:

1
2
docker --version
docker compose version

三、部署 OpenWebUI

1. 拉取官方镜像

1
docker pull ghcr.io/open-webui/open-webui:main

2. 创建数据卷与配置目录

1
mkdir -p ~/openwebui/{data,config}

3. 创建 docker-compose.yml

~/openwebui/ 目录下新建文件:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
version: "3"
services:
openwebui:
image: ghcr.io/open-webui/open-webui:main
container_name: openwebui
restart: always
ports:
- "3000:8080"
volumes:
- ./data:/app/backend/data
- ./config:/app/backend/config
environment:
- WEBUI_AUTH=True
- API_BASE_URL=https://api.chutes.ai/v1
- API_KEY=${CHUTES_API_KEY}

💡 CHUTES_API_KEY 为你在 Chutes 平台获取的访问密钥。


4. 启动容器

1
2
cd ~/openwebui
docker compose up -d

启动后访问:

1
http://localhost:3000

首次访问会提示创建管理员账号。


四、接入 Chutes.ai

1. 获取 API 凭证

登录 https://chutes.ai
→ 控制台 → API Keys → 新建密钥。

复制生成的 API Key。


2. 在 OpenWebUI 中配置 Chutes Endpoint

打开 WebUI 管理后台 → SettingsAPI Configuration
填写以下内容:

  • Base URL: https://api.chutes.ai/v1
  • API Key: 粘贴你刚生成的密钥
  • Model: 输入可用模型 ID,例如:

1
2
3
chutes/sglang-70b
chutes/phi3-mini
chutes/llama3.1-8b
  • Proxy Mode: ✅ 开启(若你本地网络需代理)

保存后即可开始调用 Chutes 模型进行推理。


五、自定义参数与多模型切换

OpenWebUI 支持动态切换模型与参数:

  • 温度 (temperature):控制随机性(默认 0.7)
  • 最大输出长度 (max_tokens):限制生成长度
  • Top-p / Top-k:控制采样多样性
  • System Prompt:自定义模型人格设定

在主界面左下角的 “⚙️ 设置 → 模型配置” 中可修改默认参数。


六、常见问题与解决方案

问题 可能原因 解决方法
无法连接 Chutes API 网络或防火墙问题 检查网络出口能否访问 api.chutes.ai
提示 401 Unauthorized API Key 无效 重新生成密钥并更新 .env
模型列表为空 Base URL 配置错误 确保为 https://api.chutes.ai/v1
Docker 启动失败 端口被占用 修改 docker-compose.yml 中的端口号

七、进阶玩法

  1. 启用多用户模式

    1
    WEBUI_AUTH=True

    多人共享访问、各自保存会话历史。

  2. 外网访问配置
    可通过反向代理(如 Nginx / Caddy)绑定域名并启用 HTTPS。

  3. 与 Chutes Subnet 自建节点集成
    如果你已运行 Chutes Miner 或 Validator 节点,可在本地部署私有推理接口,再在 OpenWebUI 中指向该本地 Endpoint,实现完全去中心化的交互体验。


八、总结

通过以上步骤,你已成功在本地部署了 OpenWebUI 并接入了 Chutes.ai 分布式 AI 网络
现在你可以在浏览器中自由切换模型、管理会话、甚至连接自己的子网节点,实现一个强大的 AI 控制中心


推荐阅读: