前面文章,和大家分享了很多免费开源的 TTS 项目:
- 永世免费语音服务!微软 Azure 注册实操,零本钱实现TTS自由
- F5-TTS 开源语音克隆:本地部署实测,2秒复刻你的声音
- 开源最快语音克隆方案,FishSpeech 焕新升级,本地部署实测
- 阿里开源TTS CosyVoice 再升级!语音克隆玩出新花样,支持流式输出
- 最新开源TTS语音克隆,本地部署实测!跨语言、高保真
就体验而言,笔者用的最多的当属:edge-tts FishSpeech 和 CosyVoice
其中,edge-tts 需联网,而 FishSpeech 和 CosyVoice 则需显卡。
有没有端侧可运行的轻量级 TTS 模型?
之前还真发现过一个潜力股:Kokoro,不外当时对中文不太友爱,暂且搁置。
迩来,Kokoro 上新了,新增 100 种中文音色,且支持中英混合。
这就有必要来聊聊了,希望能为您本地 TTS 选型提供一个参考。
1. Kokoro 简介
项目地址:https://github.com/hexgrad/kokoro
一款超轻量级的 TTS 模型,只有 82M 参数。
别看它架构轻巧,音质仍可媲美动辄 0.5B 的大模型。
且看语音合成范畴的 TTS Arena 排行榜,荣登榜一,且遥遥领先!
相比 v0.19,v1.0 训练数据规模增加了,支持的音色更多:
老规矩,简短介绍下亮点:
- 多语言支持:支持中、英、日、法、意大利、葡萄牙、西班牙、印地语共 8 种语言。
- 多音色支持:提供了多种男女人物音色,不停更新中。
- 及时语音生成:CPU上可近乎及时,而在GPU上,则到达了50倍及时速率。
- 天然语音生成:不只是快,生成的语音还超逼真。
1.1 音色地址
Kokoro 的所有音色均以 pt 文件,存放在 huggingface,国内用户可通过以下地址下载:
v1.0:https://hf-mirror.com/hexgrad/Kokoro-82M
v1.1 https://hf-mirror.com/hexgrad/Kokoro-82M-v1.1-zh,新增更多中文音色。
2. Kokoro 实测
2.1 安装依靠
需安装如下依靠:
- pip install kokoro
- pip install ordered-set
- pip install cn2an
- pip install pypinyin_dict
复制代码 2.2 模型和音色下载
从 huggingface 上拉取模型权重,以及音色文件:
- export HF_ENDPOINT=https://hf-mirror.com # 引入镜像地址
- huggingface-cli download --resume-download hexgrad/Kokoro-82M --local-dir ./ckpts/kokoro-v1.0
- huggingface-cli download --resume-download hexgrad/Kokoro-82M-v1.1-zh --local-dir ./ckpts/kokoro-v1.1
复制代码 2.3 模型推理
下面以中文语音合成为例,举行演示。
kokoro 模型推理,只需以下 4 步~
step 1:引入依靠
- import torch
- import time
- from kokoro import KPipeline, KModel
- import soundfile as sf
复制代码 step 2:加载音色
尽管 kokoro 支持运行时下载音色,不外在 2.2 部分,我们已将音色文件下载到本地,这里直接 load 进来:
- voice_zf = "zf_001"
- voice_zf_tensor = torch.load(f'ckpts/kokoro-v1.1/voices/{voice_zf}.pt', weights_only=True)
- voice_af = 'af_maple'
- voice_af_tensor = torch.load(f'ckpts/kokoro-v1.1/voices/{voice_af}.pt', weights_only=True)
复制代码 step 3:加载模型
- repo_id = 'hexgrad/Kokoro-82M-v1.1-zh'
- device = 'cuda' if torch.cuda.is_available() else 'cpu'
- model_path = 'ckpts/kokoro-v1.1/kokoro-v1_1-zh.pth'
- config_path = 'ckpts/kokoro-v1.1/config.json'
- model = KModel(model=model_path, config=config_path, repo_id=repo_id).to(device).eval()
复制代码 step 4:开始推理
- zh_pipeline = KPipeline(lang_code='z', repo_id=repo_id, model=model)
- sentence = '如果您愿意帮助进一步完成这一使命,请考虑为此贡献许可的音频数据。'
- start_time = time.time()
- generator = zh_pipeline(sentence, voice=voice_zf_tensor, speed=speed_callable)
- result = next(generator)
- wav = result.audio
- speech_len = len(wav) / 24000
- print('yield speech len {}, rtf {}'.format(speech_len, (time.time() - start_time) / speech_len))
- sf.write('output.wav', wav, 24000)
复制代码 其中,speed 支持 float 范例的语速控制,speed_callable为官方提供的默认回调函数(紧张和训练数据有关):
- def speed_callable(len_ps):
- speed = 0.8
- if len_ps <= 83:
- speed = 1
- elif len_ps < 183:
- speed = 1 - (len_ps - 83) / 500
- return speed * 1.1
复制代码 对于中英混杂的文本,必要在 KPipeline 中增加 en_callable 回调函数,并传入英文音色,如下:
- en_pipeline = KPipeline(lang_code='a', repo_id=repo_id, model=model)
- def en_callable(text):
- if text == 'Kokoro':
- return 'kˈOkəɹO'
- elif text == 'Sol':
- return 'sˈOl'
- return next(en_pipeline(text, voice=voice_zf_tensor)).phonemes
- zh_pipeline = KPipeline(lang_code='z', repo_id=repo_id, model=model, en_callable=en_callable)
复制代码 最后,来听听合成效果:
中文语音合成:
- 如果您愿意帮助进一步完成这一使命,请考虑为此贡献许可的音频数据。
复制代码 kokoro-zh.wav
中英混语合成:
- 该 Apache 许可模式也符合 OpenAI 所宣称的广泛传播 AI 优势的使命。
复制代码 kokoro-mixed.wav
2.4 速率测试
GPU 推理显存占用:
TTS 通用的速率评估指标为 rtf,也即 推理耗时/生成音频耗时,指标越低,代表推理速率越快!
kokoro GPU 推理:
- yield speech len 6.825, rtf 0.2680429521497789
复制代码 kokoro CPU 推理:
- yield speech len 6.825, rtf 0.4242438012427026
复制代码 可以发现,即便是 CPU 推理,rtf 依然远小于 1,强啊!
2.5 服务端部署
下面我们接纳 FastAPI 完成服务部署。(完整代码,可在文末自取)
首先,定义数据模型,用于吸取POST请求中的数据:
- class TTSRequest(BaseModel):
- tts_text: str # 待合成的文本
- voice_id: Optional[str] = "zf_001" # 参考语音的id
- speed: Optional[float] = None # 语速
复制代码 接口功能函数:
- @app.post('/tts')
- def tts(request: TTSRequest):
- voice_path = f'ckpts/kokoro-v1.1/voices/{request.voice_id}.pt'
- if not os.path.exists(voice_path):
- return JSONResponse(status_code=400, content={"error": "voice_id not found"})
- voice_tensor = torch.load(voice_path, weights_only=True)
- speed = speed_callable if request.speed is None else request.speed
- generator = zh_pipeline(request.tts_text, voice=voice_tensor, speed=speed)
- result = next(generator)
- wav = result.audio.cpu().numpy()
- wav = (wav * 32767).astype(np.int16)
- wav_bytes = io.BytesIO()
- wav_bytes.write(wav.tobytes())
- wav_bytes.seek(0)
- return StreamingResponse(wav_bytes, media_type='audio/pcm', headers=headers)
复制代码 注意:模型原始输出为 torch.tensor,可转成 int16 以 pcm 格式输出。
最后,启动服务:
- nohup uvicorn server:app --host 0.0.0.0 --port 3008 > server.log 2>&1 &
- echo "Server started"
复制代码 客户端测试代码:
- def test():
- data = {
- 'tts_text': '2024年12月21日,你好,欢迎使用语音合成服务,共收录2000余种语言。',
- }
- response = requests.post(f"{url}/tts", json=data)
- pcm2wav(response.content)
复制代码 对于数字播报这一老大难题目,kokoro 也能轻松拿捏,来听效果:
kokoro-num.wav
就凭这,kokoro 吊打一众 TTS 巨无霸模型!
写在最后
本文分享了轻量级语音合成工具:kokoro,并举行了本地部署实测。
有一说一,抛开语气 情绪等细粒度控制不谈,kokoro 绝对的性价比之王!
对中文支持友爱,CPU 及时可跑,单凭这两点,强烈推荐您一试!
如果对你有帮助,接待点赞收藏备用。
本文服务部署代码已上传云盘,必要的朋友,公众号后台回复kokoro自取!
为方便大家交流,新建了一个 AI 交流群,公众号后台「接洽我」,拉你进群。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |