📄️ 🐋 使用 Llama.cpp 运行 DeepSeek R1 动态量化模型
非常感谢 UnslothAI 团队的杰出贡献!通过他们的不懈努力,我们现在可以在 Llama.cpp 上运行完整版 DeepSeek-R1 671B 参数模型的动态 1.58 位量化版本(压缩至仅 131GB)!最令人兴奋的是,您不再需要昂贵的企业级 GPU 或服务器 — 现在可以在个人电脑上运行这个模型(虽然在大多数消费级硬件上运行速度会较慢)。
📄️ 🖥️ 在 Intel GPU 上部署本地大语言模型(IPEX-LLM)
注意:本教程来自社区贡献,不由 Open WebUI 团队官方支持。它仅用于演示如何根据具体需求自定义 Open WebUI。如果您也想为社区做出贡献,欢迎参考贡献指南。
📄️ ⚛️ Continue.dev VSCode 扩展与 Open WebUI 集成指南
注意:本教程来自社区贡献,不由 Open WebUI 团队官方支持。它仅用于演示如何根据具体需求自定义 Open WebUI。如果您也想为社区做出贡献,欢迎参考贡献指南。
📄️ 🛃 配置自定义证书存储
本教程来自社区贡献,未经 Open WebUI 团队官方支持。它仅用于演示如何根据特定需求自定义 Open WebUI。如果您想要贡献内容,请参考贡献指南教程。
📄️ 🌐 浏览器搜索引擎集成
注意:本教程来自社区贡献,不由 Open WebUI 团队官方支持。它仅用于演示如何根据具体需求自定义 Open WebUI。如果您也想为社区做出贡献,欢迎参考贡献指南。
📄️ 💥 使用 Langfuse 实现应用监控与调试
Langfuse(GitHub 仓库)是一个开源的应用监控和评估平台,专为 OpenWebUI 设计。启用 Langfuse 集成后,您可以实现以下功能:
📄️ 🔠 LibreTranslate 集成
本教程来自社区贡献,未经 OpenWebUI 团队官方支持。它仅用于演示如何根据特定需求自定义 OpenWebUI。如果您想要贡献内容,请参考贡献指南教程。
📄️ 🔗 Redis WebSocket 支持
本教程由社区贡献,并非 Open WebUI 团队官方支持的内容。它仅作为如何根据特定需求自定义 Open WebUI 的参考示例。如果 您想要贡献内容,请参阅贡献指南。
📄️ 🛌 与 Amazon Bedrock 集成
本教程是社区贡献内容,不受 Open WebUI 团队官方支持。它仅作为如何根据特定需求自定义 Open WebUI 的示例。想要贡献自己的内容?请查看贡献指南教程。
📄️ 🪶 Apache Tika 文档提取
注意:本教程来自社区贡献,不由 Open WebUI 团队官方支持。它仅用于演示如何根据具体需求自定义 Open WebUI。如果您也想贡献内容,请参考贡献指南。
📄️ 🦊 Firefox AI 智能助手侧边栏
注意:本教程来自社区贡献,不由 Open WebUI 团队官方支持。它仅用于演示如何根据具体需求自定义 Open WebUI。如果您也想为社区做出贡献,欢迎参考贡献指南。