Skip to main content

Open WebUI

Open WebUI 是一个可扩展的、功能丰富、用户友好的自托管 AI 平台,专为完全离线运行而设计。 它支持多种 LLM 运行环境,包括 OllamaOpenAI 兼容的 API,并内置了用于 RAG 的推理引擎,是一个强大的 AI 部署解决方案

GitHub stars GitHub forks GitHub watchers GitHub repo size GitHub language count GitHub top language GitHub last commit Hits Discord

Open WebUI 演示

tip

想了解企业版方案即刻咨询我们的销售团队!

获取增强型功能特性,包括自定义主题与品牌定制服务级别协议(SLA)支持长期支持版本(LTS)以及更多特性

如果您的电脑上已安装 Ollama,请运行以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如需启用 Nvidia GPU 支持,请运行以下命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

Open WebUI 与 Ollama 一键部署

这种安装方式将 Open WebUI 和 Ollama 打包在同一个容器镜像中,只需一条命令即可完成部署。请根据您的硬件配置选择合适的命令:

  • GPU 版本: 如果您想使用 GPU 加速,请运行:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • CPU 版本: 如果您的设备没有 GPU,请运行:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

这两个命令都会自动完成 Open WebUI 和 Ollama 的安装,让您可以快速开始使用。

部署完成后,请访问 http://localhost:3000 开始使用 Open WebUI。祝您使用愉快!😄

使用开发版本 🌙

warning

:dev 分支包含最新的实验性功能和更新,可能存在 bug 或未完成的功能,请谨慎使用。

如果您想尝鲜最新功能,且能接受一定的不稳定性,可以使用 :dev 标签版本:

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:dev

更新说明

以下是更新 Open WebUI 容器的简便方法:

手动更新

使用 Watchtower 手动更新 Docker 容器:

docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

自动更新

设置每 5 分钟自动检查并更新容器:

docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --interval 300 open-webui

🔧 提示:如果您使用了其他容器名称,请将命令中的 open-webui 替换为您的容器名称。

手动安装指南

Open WebUI 提供两种主要的安装方式:使用 uv 运行时管理器或 Python 的 pip。尽管两种方法都可行,但我们强烈推荐使用 uv,因为它能更好地管理环境并减少依赖冲突。

使用 uv 安装(推荐方式)

uv 运行时管理器为 Open WebUI 等应用提供了完善的 Python 环境管理。请按以下步骤操作:

1. 安装 uv

根据您的操作系统选择对应的安装命令:

  • macOS/Linux
curl -LsSf https://astral.sh/uv/install.sh | sh
  • Windows
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

2. 运行 Open WebUI

安装完 uv 后,启动 Open WebUI 非常简单。请使用以下命令,注意设置 DATA_DIR 环境变量以保护您的数据:

  • macOS/Linux
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
  • Windows
$env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve

Docker 快速上手指南 🐳

使用 pip 安装

如果您选择使用 Python 的 pip 包管理器安装 Open WebUI,我们强烈建议您使用 uvconda 等 Python 环境管理工具,这样可以更好地管理依赖并避免冲突。

我们使用 Python 3.11 进行开发。Python 3.12 可能可以运行但尚未经过完整测试。Python 3.13 完全未经测试——使用需自担风险

  1. 安装步骤

打开终端,运行:

pip install open-webui
  1. 启动服务

安装完成后,执行:

open-webui serve

版本更新

要更新到最新版本,只需执行:

pip install --upgrade open-webui

这种安装方法会自动处理所有依赖项并启动 Open WebUI。安装完成后,访问 http://localhost:8080 即可开始使用。祝您使用愉快!😄

其他部署方式

我们还提供了多种部署方案,包括非 Docker 原生安装、Docker Compose、Kustomize 和 Helm 等。欢迎访问 Open WebUI 官方文档 或加入我们的 Discord 社区 获取详细指导。

继续阅读完整的入门指南

赞助商 🙌

Sponsored by Open WebUI Pipelines
Open WebUI Pipelines
Pipelines: Versatile, UI-Agnostic OpenAI-Compatible Plugin Framework

我们衷心感谢所有赞助商的慷慨支持。正是您们的贡献使我们能够持续维护和改进项目,为社区提供更好的服务。感谢您们!