Skip to main content

🚧 服务器连接问题

我们将帮助你完成所有设置并确保系统正常运行。下面是针对不同场景的分步指南,用于解决与 Ollama 和 Hugging Face 等外部服务器的常见连接问题。

🌟 连接到 Ollama 服务器

🚀 从 Open WebUI 访问 Ollama

无法从 Open WebUI 连接到 Ollama?这可能是因为 Ollama 未监听允许外部连接的网络接口。让我们按以下步骤解决:

  1. 配置 Ollama 网络监听 🎧: 将 OLLAMA_HOST 设置为 0.0.0.0,使 Ollama 监听所有可用的网络接口。

  2. 更新环境变量: 确保在部署环境中正确配置了 OLLAMA_HOST 变量。

  3. 重启 Ollama 服务🔄: 配置更改后需要重启服务才能生效。

💡 完成设置后,请访问 WebUI 界面验证 Ollama 是否可以正常连接。

如需了解更多 Ollama 配置详情,请参阅 Ollama 官方文档

🐳 Docker 连接错误

如果在访问 Ollama 时遇到连接错误,可能是因为 WebUI Docker 容器无法与主机上运行的 Ollama 服务器建立通信。解决方法如下:

  1. 调整网络配置 🛠️: 在 Docker 运行命令中添加 --network=host 参数,这将允许容器直接使用主机网络。

  2. 端口变更说明: 注意内部服务端口会从 3000 变更为 8080。

Docker 运行命令示例

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

🔗 执行上述命令后,你可以通过 http://localhost:8080 访问 WebUI。

🔒 Hugging Face SSL 连接问题

遇到 SSL 错误?这可能与 Hugging Face 服务器有关。解决步骤如下:

  1. 检查 Hugging Face 服务状态: 首先确认是否存在已知的服务中断或系统问题。

  2. 更换服务端点: 如果 Hugging Face 服务不可用,可以在 Docker 命令中更换连接端点。

处理连接问题的 Docker 命令示例

docker run -d -p 3000:8080 -e HF_ENDPOINT=https://hf-mirror.com/ --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

🍏 MacOS 系统上的 Podman 配置

在 MacOS 上使用 Podman?请按以下步骤确保连接正常:

  1. 启用主机回环(Host Loopback): 在运行命令中添加 --network slirp4netns:allow_host_loopback=true 参数。

  2. 配置 OLLAMA_BASE_URL: 将地址设置为 http://host.containers.internal:11434

Podman 运行命令示例

podman run -d --network slirp4netns:allow_host_loopback=true -p 3000:8080 -e OLLAMA_BASE_URL=http://host.containers.internal:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main