🕸️ 网络拓扑图
在这里,我们提供清晰和结构化的图表,帮助您了解网络的各种组件在不同设置中如何交互。本文档旨在为 macOS/Windows 和 Linux 用户提供帮助。每个场景都使用 Mermaid 图表来说明如何根据不同的系统配置和部署策略设置交互。
Mac OS/Windows 设置选项 🖥️
Ollama 在主机上,Open WebUI 在容器中
在这种场景中,Ollama
直接在主机上运行,而 Open WebUI
在 Docker 容器中运行。
Ollama 和 Open WebUI 在 Compose 堆栈中
Ollama
和 Open WebUI
都配置在同一个 Docker Compose 堆栈中,简化了网络通信。
Ollama 和 Open WebUI,独立网络
在这里,Ollama
和 Open WebUI
部署在不同的 Docker 网络中,可能导致连接问题。
Open WebUI 使用主机网络
在这种配置中,Open WebUI
使用主机网络,这会影响其在某些环境中的连接能力。
Linux 设置选项 🐧
Ollama 在主机上,Open WebUI 在容器中(Linux)
此图表专用于 Linux 平台,Ollama
在主机上运行,Open WebUI
部署在 Docker 容器内。
Ollama 和 Open WebUI 在 Compose 堆栈中(Linux)
一种设置,其中 Ollama
和 Open WebUI
都位于同一个 Docker Compose 堆栈内,允许在 Linux 上进行简单的网络配置。
Ollama 和 Open WebUI,独立网络(Linux)
在 Linux 环境下,Ollama
和 Open WebUI
位于不同 Docker 网络中的场景,这可能会阻碍连接。
Open WebUI 使用主机网络,Ollama 在主机上(Linux)
一种最佳布局,其中 Open WebUI
和 Ollama
都使用主机网络,促进在 Linux 系统上的无缝交互。
每种设置都针对不同的部署策略和网络配置,帮助您选择最适合您需求的布局。