⭐ 功能特性
Open WebUI 的主要功能 ⭐
-
🚀 轻松设置:使用 Docker、Kubernetes、Podman、Helm Charts(
kubectl
、kustomize
、podman
或helm
)无缝安装,提供无忧体验,支持内置 Ollama 的:ollama
镜像和支持 CUDA 的:cuda
镜像。 -
🛠️ 引导式初始设置:清晰地完成设置过程,包括在首次设置期间明确指示创建管理员账户。
-
🤝 OpenAI API 集成:轻松集成 OpenAI 兼容 API,与 Ollama 模型一起进行多样化对话。OpenAI API URL 可以自定义,将 Open WebUI 与各种第三方应用程序无缝集成。
-
🛡️ 细粒度权限和用户组:通过允许管理员创建详细的用户角色、用户组和跨工作空间的权限,我们为所有参与用户确保安全的用户环境。这种细粒度不仅增强了安全性,还允许定制化的用户体验,培养用户的主人翁意识和责任感。
-
📱 响应式设计:在台式电脑、笔记本电脑和移动设备上享受无缝体验。
-
📱 移动端渐进式 Web 应用:在您的移动设备上享受原生渐进式 Web 应用体验,在
localhost
或个人域名上具有离线访问功能,以及流畅的用户界面。为了让我们的 PWA 可以在您的设备上安装,它必须在安全上下文中提供。这通常意味着它必须通过 HTTPS 提供服务。info- 要设置 PWA,您需要对 Linux、Docker 和反向代理(如
Nginx
、Caddy
或Traefik
)等技术有一些了解。使用这些工具可以帮助简化构建和部署适合您需求的 PWA 的过程。虽然没有"一键安装"选项可用,并且您通过 HTTPS 安全部署 Open WebUI 实例的可用选项需要用户经验,但使用这些资源可以使创建和部署适合您需求的 PWA 变得更容易。
- 要设置 PWA,您需要对 Linux、Docker 和反向代理(如
-
✒️🔢 完整的 Markdown 和 LaTeX 支持:通过全面的 Markdown、LaTeX 和富文本功能提升您的 LLM 体验,实现丰富的交互。
-
🧩 模型构建器:直接从 Open WebUI 基于 Ollama 基础模型轻松创建自定义模型。创建和添加自定义角色和代理,自定义模型元素,并通过 Open WebUI Community 集成轻松导入模型。
-
📚 本地和远程 RAG 集成:通过我们在聊天中的尖端检索增强生成(RAG)技术深入了解聊天交互的未来并探索您的文档。文档可以加载到工作空间的
Documents
选项卡中,之后可以在查询前使用井号键 [#
] 访问它们,或者在提示开头使用井号键 [#
] 后跟 URL 进行网页内容集成。 -
📄 文档提取:从各种文档格式(包括 PDF、Word 文档、Excel 电子表格、PowerPoint 演示文稿等)中提取文本和数据。我们先进的文档处理功能可以与您的知识库无缝集成,允许从复杂文档中准确检索和生成信息,同时保持其结构和格式。
-
🔍 用于 RAG 的 Web 搜索:您可以使用各种搜索提供商的选择执行 Web 搜索,并将结果直接注入到您的本地检索增强 生成(RAG)体验中。
-
🌐 Web 浏览功能:通过使用
#
命令后跟 URL 将网站无缝集成到您的聊天体验中。此功能可以将 Web 内容直接合并到您的对话中,从而增强交互的丰富性和深度。 -
🎨 图像生成集成:无缝结合图像生成功能,用动态视觉内容丰富您的聊天体验。
-
⚙️ 并发模型利用:轻松同时与多个模型交互,利用它们的独特优势获得最佳响应。并行利用多样化的模型模态集来增强您的体验。
-
🔐 基于角色的访问控制(RBAC):通过受限权限确保安全访问。只有授权人员可以访问您的 Ollama,而模型创建和拉取权限专门保留给管理员。
-
🌐🌍 多语言支持:通过我们的国际化(
i18n
)支持,以您首选的语言体验 Open WebUI。我们邀请您加入我们扩展支持语言的行列!我们正在积极寻求贡献者! -
🌟 持续更新:我们致力于通过定期更新、修复和新功能改进 Open WebUI。
以及更多卓越功能,包括... ⚡️
🔧 管道支持
-
🔧 管道框架:通过我们的模块化插件框架(https://github.com/open-webui/pipelines)无缝集成和自定义您的 Open WebUI 体验,以增强定制和功能。我们的框架允许轻松添加自定义逻辑和集成 Python 库,从 AI 代理到家庭自动化 API。
-
📥 上传管道:管道可以直接从
管理面板
>设置
>管道
菜单上传,简化管道管理过程。
我们的管道框架的可能性无穷无尽,几乎没有限制。从一些预构建的管道开始,帮助您入门!
-
🔗 函数调用:通过管道无缝集成函数调用,使用高级函数调用功能增强您的 LLM 交互。
-
📚 自定义 RAG:无缝集成自定义检索增强生成(RAG)管道,使用自定义 RAG 逻辑增强您的 LLM 交互。
-
📊 使用 Langfuse 进行消息监控:通过 Langfuse 管道实时监控和分析消息交互的使用统计。
-
⚖️ 用户速率限制:通过控制发送到 LLM 的请求流来有效管理 API 使用,使用速率限制管道防止超过速率限制。
-
🌍 实时 LibreTranslate 翻译:使用 LibreTranslate 管道将实时翻译集成到您的 LLM 交互中,实现跨语言沟通。
- 请注意,此管道需要在 Docker 容器中进一步设置 LibreTranslate 才能工作。
-
🛡️ 有毒消息过滤:我们的 Detoxify 管道自动过滤有毒消息,以保持清洁安全的聊天环境。
-
🔒 LLM-Guard:使用 LLM-Guard 管道确保安全的 LLM 交互,具有提示注入扫描器,可检测和缓解针对大型语言模型的巧妙输入操作。这保护您的 LLM 免受数据泄漏,并增加一层抵抗提示注入攻击的防护。
-
🕒 对话轮次限制:通过使用对话轮次限制管道设置对话轮次限制来改善交互管理。
-
📈 OpenAI 生成统计:我们的 OpenAI 管道为 OpenAI 模型提供详细的生成统计。
-
🚀 多模型支持:我们与各种提供商的各种 AI 模型的无缝集成扩展了您的可能性,提供广泛的语言模型供您选择和交互。