🗨️ 基于 Docker 的 Kokoro-FastAPI 使用指南
warning
本教程来自社区贡献,未经 Open WebUI 团队官方支持。这仅作为自定义 Open WebUI 的示例演示。如果您想要贡献内容,请查看贡献指南。
什么是 Kokoro-FastAPI
?
Kokoro-FastAPI 是一个基于 Docker 的 FastAPI 封装器,专门用于 Kokoro-82M 文本转语音模型,实现了 OpenAI API 接口规范。它提供高性能的文本转语音功能,具有出色的生成速度。
主要特性
- 兼容 OpenAI 的语音 API 接口,支持内置语音混合
- 支持 NVIDIA GPU 加速或 CPU Onnx 推理
- 支持可调节块大小的流式传输
- 支持多种音频格式(
.mp3
、.wav
、.opus
、.flac
、.aac
、.pcm
) - 提供集成的 Web 界面(访问 localhost:8880/web)或额外的 Gradio 界面
- 提供音素转换和生成 API 接口
支持的语音
- af
- af_bella
- af_irulan
- af_nicole
- af_sarah
- af_sky
- am_adam
- am_michael
- am_gurney
- bf_emma
- bf_isabella
- bm_george
- bm_lewis
支持的语言
- en_us(美式英语)
- en_uk(英式英语)
系统要求
- 已安装 Docker 环境
- 已运行 Open WebUI
- GPU 版本要求:NVIDIA GPU,支持 CUDA 12.3
- CPU 版本:无特殊硬件要求
⚡️ 快速开始
选择 GPU 或 CPU 版本
GPU 版本(需要支持 CUDA 12.1 的 NVIDIA GPU)
使用 docker run 命令:
docker run --gpus all -p 8880:8880 ghcr.io/remsky/kokoro-fastapi-gpu
或创建 docker-compose.yml
文件并使用 docker compose,示例如下:
name: kokoro
services:
kokoro-fastapi-gpu:
ports:
- 8880:8880
image: ghcr.io/remsky/kokoro-fastapi-gpu:v0.2.1
restart: always
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities:
- gpu
info
使用 GPU 版本前,请确保已安装并配置 NVIDIA Container Toolkit