Spark-TTS:基于大模型的文本语音合成工具

打印 上一主题 下一主题

主题 1013|帖子 1013|积分 3039


GitHub:https://github.com/SparkAudio/Spark-TTS 
       Spark-TTS是一个先进的文本到语音系统,它利用大型语言模型(LLM)的强大功能进行高度准确和自然的语音合成;旨在高效、灵活、强大地用于研究和生产用途。
一、先容

       Spark TTS完全基于Qwen2.5构建,无需额外的生成模型,它不依赖于单独的模型来生成声学特性,而是直接从LLM预测的代码中重建音频。这种方法简化了流程,提高了效率并降低了复杂性;支持零样本语音克隆,它可以直接复制说话者的语音。这是跨语言和代码转换场景的抱负选择,允许语言和语音之间的无缝转换,而不必要对每种语言进行单独的培训;支持中文和英文两种语言,使模型可以或许以高自然度和准确性合成多种语言的语音;支持通过调解性别、音高和语速等参数来创建假造说话者。
二、安装

2.1 克隆项目

  1. git clone https://github.com/SparkAudio/Spark-TTS.git
  2. cd Spark-TTS
复制代码
2.2 构建情况依赖

  1. conda create -n sparktts -y python=3.12
  2. conda activate sparktts
  3. pip install -r requirements.txt
  4. # If you are in mainland China, you can set the mirror as follows:
  5. # pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/ --trusted-host=mirrors.aliyun.com
复制代码
PS:官方推荐python3.12,但是我这边使用3.12情况不停安装失败,以是我选择3.11.11,和我一样问题的同学可以尝试一降落低python版本 ;
2.3 下载预练习模型

  1. mkdir pretrained_models && cd pretrained_models
  2. # 安装大文件拉取工具
  3. git lfs install
  4. # 从Modelscpoe上下载模型
  5. git clone https://www.modelscope.cn/SparkAudio/Spark-TTS-0.5B.git
复制代码
三、运行

3.1 终端运行

  1. python -m cli.inference \
  2.     --text "text to synthesis." \
  3.     --device 0 \
  4.     --save_dir "path/to/save/audio" \
  5.     --model_dir pretrained_models/Spark-TTS-0.5B \
  6.     --prompt_text "transcript of the prompt audio" \
  7.     --prompt_speech_path "path/to/prompt_audio"
复制代码
       上面是在终端的运行代码,项目中给出了一个运行事例,我们结合这个运行事例来详细看一下每个参数代表的含义,下面就是example/infer.sh的文件内容:
  1. #!/bin/bash
  2. # Copyright (c) 2025 SparkAudio
  3. #               2025 Xinsheng Wang (w.xinshawn@gmail.com)
  4. #
  5. # Licensed under the Apache License, Version 2.0 (the "License");
  6. # you may not use this file except in compliance with the License.
  7. # You may obtain a copy of the License at
  8. #
  9. #   http://www.apache.org/licenses/LICENSE-2.0
  10. #
  11. # Unless required by applicable law or agreed to in writing, software
  12. # distributed under the License is distributed on an "AS IS" BASIS,
  13. # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  14. # See the License for the specific language governing permissions and
  15. # limitations under the License.
  16. # Get the absolute path of the script's directory
  17. script_dir=$(dirname "$(realpath "$0")")
  18. # Get the root directory
  19. root_dir=$(dirname "$script_dir")
  20. # Set default parameters
  21. device=0
  22. save_dir='example/results'
  23. model_dir="pretrained_models/Spark-TTS-0.5B"
  24. text="身临其境,换新体验。塑造开源语音合成新范式,让智能语音更自然。"
  25. prompt_text="吃燕窝就选燕之屋,本节目由26年专注高品质燕窝的燕之屋冠名播出。豆奶牛奶换着喝,营养更均衡,本节目由豆本豆豆奶特约播出。"
  26. prompt_speech_path="example/prompt_audio.wav"
  27. # Change directory to the root directory
  28. cd "$root_dir" || exit
  29. source sparktts/utils/parse_options.sh
  30. # Run inference
  31. python -m cli.inference \
  32.     --text "${text}" \
  33.     --device "${device}" \
  34.     --save_dir "${save_dir}" \
  35.     --model_dir "${model_dir}" \
  36.     --prompt_text "${prompt_text}" \
  37.     --prompt_speech_path "${prompt_speech_path}"
  38.    
  39.    
复制代码
传参含义
text必要克隆语音所对应的文本
device指定显卡编号
save_dir克隆语音的保存路径
model_dir大模型的保存路径
prompt_text样本语音的文本信息
prompt_speech_path样本语音的保存路径
3.2 WebUI

3.2.1 启动

       看到如下界面体现启动成功,在当地通过浏览器访问红框的网址; 
  1. # 在终端运行:
  2. python webui.py --device 0
复制代码
 3.2.2 克隆


       看到如下界面,黄框是语音克隆功能区:

序号一:上传当地待克隆的语音样本(似乎不支持m4a格式,最好上传wav格式);
序号二:可以在线录制必要克隆的人的声音(1、2选择一个就可以);
序号三:添加必要克隆语音的文本,即命令行运行中的‘text’参数;
序号四:上传或者录音的语音所对应的文本信息;
序号五:生成克隆语音的展示区;
序号六:上述1-4信息填写完成后点击开始克隆; 
3.2.3 语音创作

       看到如下界面,黄框是语音创作功能区:

序号一:可以选择生成语音的性别;
序号二:调解生成语音的音调;
序号三:调解生成语音的语速;
序号四:输入生成语音的文本信息;
序号五:点击开始创作,生成效果会展示在下方;
四、总结

       团体体验感觉推理速率还是比力快的,但是在功能性上还是在效果上都有所欠缺;语音处置处罚功能相较于之前测试的FunASR显得就比力单一;在克隆的效果上相较于之前测试的StepAudio也略有逊色;大家可以尝试一下,进行一下比力~

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

知者何南

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表