fast-whisper 官网地址:https://github.com/SYSTRAN/faster-whisper
搭建环境时,按照官方的创建环境要求执行的
- 利用conda create -n fast_whisper python=3.9创建假造环境
- 执行pip install faster-whisper 安装库
- pip install nvidia-cublas-cu12 nvidia-cudnn-cu12==8.*
- 降低numpy版本,fast-whisper只能基于numpy 1.* 版本
关于linux上创建假造环境可以参考 https://zhuanlan.zhihu.com/p/440548295
在运行示例的时间报错如下:
代码如下:- from faster_whisper import WhisperModel
- model_size = "large-v3"
- # Run on GPU with FP16
- model = WhisperModel(model_size, device="cuda", compute_type="float16")
- # or run on GPU with INT8
- # model = WhisperModel(model_size, device="cuda", compute_type="int8_float16")
- # or run on CPU with INT8
- # model = WhisperModel(model_size, device="cpu", compute_type="int8")
- segments, info = model.transcribe("test_wavs/whisper_test.wav", beam_size=5)
- print("Detected language '%s' with probability %f" % (info.language, info.language_probability))
- for segment in segments:
- print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
复制代码 原因应该是没有安装cudnn相关库。
方法一:
下载cudnn安装包
去官网下载了对应的cudnn安装包,网址如下:https://developer.nvidia.com/rdp/cudnn-archive#a-collapse805-111
选择对应的linux x86_64版本下载。
解压安装
参考https://zhuanlan.zhihu.com/p/701577195
方法二:
直接在创建的假造环境中执行conda install cudnn
然后再运行即可运行成功。
我这边直接在假造环境中执行方法二后,步伐即成功运行了,故此没有再继续验证方法一。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |