Skip to main content

🚧 服务器连接问题

我们在这里帮助您设置并让一切顺利运行。下面,您将找到针对不同场景的分步说明,以解决 Ollama 和外部服务器(如 Hugging Face)的常见连接问题。

🌟 连接到 Ollama 服务器

🚀 从 Open WebUI 访问 Ollama

无法从 Open WebUI 连接到 Ollama?这可能是因为 Ollama 没有在允许外部连接的网络接口上监听。让我们解决这个问题:

  1. 配置 Ollama 广泛监听 🎧: 将 OLLAMA_HOST 设置为 0.0.0.0,使 Ollama 在所有网络接口上监听。

  2. 更新环境变量: 确保在您的部署环境中准确设置了 OLLAMA_HOST

  3. 重启 Ollama🔄: 需要重启以使更改生效。

💡 设置完成后,通过访问 WebUI 界面验证 Ollama 是否可访问。

有关配置 Ollama 的更详细说明,请参考 Ollama 官方文档

🐳 Docker 连接错误

如果您在尝试访问 Ollama 时看到连接错误,这可能是因为 WebUI Docker 容器无法与在您主机上运行的 Ollama 服务器通信。让我们修复这个问题:

  1. 调整网络设置 🛠️: 在您的 Docker 命令中使用 --network=host 标志。这将您的容器直接链接到主机的网络。

  2. 更改端口: 记住内部端口从 3000 更改为 8080。

示例 Docker 命令

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

🔗 运行上述命令后,您的 WebUI 应该在 http://localhost:8080 可用。

🔒 Hugging Face 的 SSL 连接问题

遇到 SSL 错误?这可能是 Hugging Face 服务器的问题。以下是解决方法:

  1. 检查 Hugging Face 服务器状态: 验证他们是否有已知的停机或问题。

  2. 切换端点: 如果 Hugging Face 停机,请在您的 Docker 命令中切换端点。

连接问题的示例 Docker 命令

docker run -d -p 3000:8080 -e HF_ENDPOINT=https://hf-mirror.com/ --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

🍏 MacOS 上的 Podman

在 MacOS 上使用 Podman?以下是确保连接的方法:

  1. 启用主机回环: 在您的命令中使用 --network slirp4netns:allow_host_loopback=true

  2. 设置 OLLAMA_BASE_URL: 确保它指向 http://host.containers.internal:11434

示例 Podman 命令

podman run -d --network slirp4netns:allow_host_loopback=true -p 3000:8080 -e OLLAMA_BASE_URL=http://host.containers.internal:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main