Linux系统上部署Whisper。

打印 上一主题 下一主题

主题 887|帖子 887|积分 2661

Whisper是一个开源的自动语音识别(ASR)模型,最初由OpenAI发布。要在本地Linux系统上部署Whisper,你可以按照以下步调举行:

1. 创建虚拟环境

  1. 为了避免依赖冲突,建议在虚拟环境中进行部署。创建并激活一个新的虚拟环境:
  2. 如果不知道 conda如何安装
  3. 找作者这篇文章 最后面有安装conda教程
  4. https://blog.csdn.net/yhl18931306541/article/details/129141060?spm=1001.2014.3001.5501
  5. 打开上方网址,划到最后位置,按照作者的一步一步来即可
复制代码
  1. conda create --name whisper python=3.11.7
  2. conda activate whisper
复制代码
进入到虚拟环境实行下方下令


2. 安装Whisper及其依赖项

使用pip安装Whisper及其依赖项:

  1. pip install git+https://github.com/openai/whisper.git
  2. pip install torch
  3. pip install faster-whisper
复制代码
3. 测试安装

你可以运行以下下令来测试Whisper是否安装成功:

  1. python -m whisper
复制代码
如果看到帮助信息,阐明安装成功。
4. 使用Whisper

Whisper可以通过下令行或Python脚本来使用。以下是一个基本的使用示例:

下令行使用:

  1. whisper audio_file.mp3 --model large-v2
  2. 将 audio_file.mp3 换成 你准备识别的语音,回车等待即可
复制代码
python脚本使用:

  1. # 导入模块
  2. from faster_whisper import WhisperModel
  3. # 模型路径,
  4. # # model_path = WhisperModel("large-v3")
  5. # 注释:下载路径需要使用代理出外网下载,将下载好的模型上传到linux服务中
  6. model_path = "/root/.cache/huggingface/hub/models--Systran--faster-whisper-large-v3/snapshots/edaa852ec7e145841d8ffdb056a99866b5f0a478"
  7. # 初始化 WhisperModel
  8. model = WhisperModel(
  9.    model_size_or_path=model_path,  # 必须提供模型路径或模型大小
  10.    device="cuda",                   # 使用 GPU   
  11.    device_index=1,                            # 指定第二个 GPU(从 0 开始计数)
  12.     compute_type="float32"   # 使用 float32 精度计算
  13. )
  14. # 进行语音识别
  15. segments, info = model.transcribe("/opt/189****2345.wav", beam_size=5, language="zh", condition_on_previous_text=False)
  16. # 注释 189****2345.wav 换成你准备识别的语音  .mp3文件可以
  17. # 打印识别结果
  18. for segment in segments:
  19. print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text)
  20. )
复制代码
输入如下即可


如果报错:

  1. Could not load library libcudnn_ops_infer.so.8. Error: libcudnn_ops_infer.so.8: cannot open shared object file: No such file or directory
  2. 已放弃 (核心已转储)
复制代码
处理:

  1. find / -name 'libcudnn_ops_infer.so.8'
  2. 虚拟用户目录下
  3. whisper/lib/python3.11/site-packages/nvidia/cudnn/lib/libcudnn_ops_infer.so.8
  4. cp -rp /data/anaconda3/envs/whisper/lib/python3.11/site-packages/nvidia/cudnn/lib/*.8 /usr/lib/
  5. cp -rp /data/anaconda3/envs/whisper/lib/python3.11/site-packages/nvidia/cudnn/lib/*.8 /usr/lib64/
  6. 继续运行即可
复制代码
这些步调应该可以帮助你在本地Linux系统上成功部署并使用Whisper。

注:下载模型时,必要到外网去下载,使用科学上网方式。

如果自己服务器出不了外网,则将模型下载到本地,然后打包上传到服务器。


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

滴水恩情

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表