📄️ 🐋 使用 Llama.cpp 运行 DeepSeek R1 Dynamic 1.58-bit
向 UnslothAI 致敬,感谢他们的不懈努力!多亏了他们的辛勤工作,我们现在可以在 Llama.cpp 上运行 完整的 DeepSeek-R1 671B 参数模型的动态 1.58-bit 量化形式(压缩至仅 131GB)!最棒的是?您不再需要为了需要大规模企业级 GPU 或服务器而绝望 — 可以在您的个人机器上运行此模型(尽管对于大多数消费级硬件来说速度较慢)。
📄️ 🖥️ 在 Intel GPU 上使用 IPEX-LLM 设置本地 LLM
本教程是社区贡献,不受 Open WebUI 团队支持。它仅作为如何为您的特定用例自定义 Open WebUI 的演示。想要贡献?查看贡献教程。
📄️ ⚛️ Continue.dev VSCode 扩展与 Open WebUI
本教程是社区贡献,不受 Open WebUI 团队支持。它仅作为如何为您的特定用例自定义 Open WebUI 的演示。想要贡献?查看贡献教程。
📄️ 🛃 使用自定义 CA 存储设置
本教程是社区贡献,不受 Open WebUI 团队支持。它仅作为如何为您的特定用例自定义 Open WebUI 的演示。想要贡献?查看贡献教程。
📄️ 🌐 浏览器搜索引擎
本教程是社区贡献,不受 Open WebUI 团队支持。它仅作为如何为您的特定用例自定义 Open WebUI 的演示。想要贡献?查看贡献教程。
📄️ 🕵🏻♀️ 使用 Helicone 监控您的 LLM 请求
本教程是社区贡献,不受 Open WebUI 团队支持。它仅作为如何为您的特定用例自定义 Open WebUI 的演示。想要贡献?查看贡献教程。