Can Distilled Whisper Models be used as a Drop-In Replacement for Open

瑞星  论坛元老 | 2024-12-7 17:18:39 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 1683|帖子 1683|积分 5049

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
题意:Distilled Whisper 模子可以用作 OpenAI Whisper 的替代品吗?


问题配景:

I have a working video transcription pipeline working using a local OpenAI Whisper model. I would like to use the equivalent distilled model ("distil-small.en"), which is smaller and faster.
我有一个使用当地 OpenAI Whisper 模子的有用视频转录流程。我想使用相应的精简模子(“distil-small.en”),因为它更小且更快。
  1. transcribe(self):
  2.     file = "/path/to/video"
  3.     model = whisper.load_model("small.en")          # WORKS
  4.     model = whisper.load_model("distil-small.en")   # DOES NOT WORK
  5.     transcript = model.transcribe(word_timestamps=True, audio=file)
  6.     print(transcript["text"])
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

瑞星

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表