Skip to main content
warning

本教程是社区贡献,不受 Open WebUI 团队支持。它仅作为如何为您的特定用例自定义 Open WebUI 的演示。想要贡献?查看贡献教程。

集成 Continue.dev VSCode 扩展与 Open WebUI

下载扩展

您可以在 Visual Studio Marketplace 下载 VSCode 扩展

安装后,您现在应该在侧边栏中有一个"continue"选项卡。打开它。

点击主聊天输入框上方的助手选择器。然后悬停在"Local Assistant"上,您应该看到一个设置图标(看起来像齿轮)。

一旦您点击设置图标,config.yaml 应该会在编辑器中打开。

在这里您将能够配置 continue 以使用 Open WebUI。


目前'ollama'提供商不支持身份验证,因此我们无法将此提供商与 Open WebUI 一起使用。

但是 Ollama 和 Open WebUI 都与 OpenAI API 规范兼容。您可以在 Ollama 的博客文章这里看到相关内容。

我们仍然可以设置 Continue 使用 openai 提供商,这将允许我们使用 Open WebUI 的身份验证令牌。


配置

config.yaml 中,您只需要添加/更改以下选项。

将提供商更改为 openai

provider: openai

添加或更新 apiBase

将其设置为您的 Open Web UI 域的末尾。

apiBase: http://localhost:3000/ #如果您按照入门 Docker 指南

添加 apiKey

apiKey: sk-79970662256d425eb274fc4563d4525b # 替换为您的 API 密钥

您可以从 Open WebUI -> 设置 -> 账户 -> API 密钥 中找到并生成您的 api 密钥

您需要复制"API 密钥"(以 sk- 开头)

配置示例

以下是通过 openai 提供商使用 Open WebUI 的 config.yaml 基本示例。使用 Granite Code 作为模型。 确保事先将模型拉取到您的 ollama 实例中。

name: Local Assistant
version: 1.0.0
schema: v1
models:
- name: Granite Code
provider: openai
model: granite-code:latest
env:
useLegacyCompletionsEndpoint: false
apiBase: http://YOUROPENWEBUI/ollama/v1
apiKey: sk-YOUR-API-KEY
roles:
- chat
- edit

- name: Model ABC from pipeline
provider: openai
model: PIPELINE_MODEL_ID
env:
useLegacyCompletionsEndpoint: false
apiBase: http://YOUROPENWEBUI/api
apiKey: sk-YOUR-API-KEY
roles:
- chat
- edit

- name: Granite Code Autocomplete
provider: openai
model: granite-code:latest
env:
useLegacyCompletionsEndpoint: false
apiBase: http://localhost:3000/ollama/v1
apiKey: sk-YOUR-API-KEY
roles:
- autocomplete

prompts:
- name: test
description: Write unit tests for highlighted code
prompt: |
为选定的代码编写一套全面的单元测试。它应该设置、运行检查正确性(包括重要边缘情况)的测试,并清理。确保测试完整且复杂。将测试作为聊天输出,不要编辑任何文件。

保存您的 config.yaml,就这样!

您现在应该在 Continue 选项卡模型选择中看到您的模型。

选择它,您现在应该通过 Open WebUI(和/或您设置的任何管道)进行聊天

您可以为想要使用的任意数量的模型执行此操作,尽管任何模型都应该工作,但您应该使用专为代码设计的模型。

有关其他 continue 配置,请参阅 continue 文档,Continue 文档