王海鱼 发表于 2024-9-7 21:33:53

推荐:Lightning Whisper MLX —— 专为Apple Silicon优化的闪电般快速的Wh

推荐:Lightning Whisper MLX —— 专为Apple Silicon优化的闪电般快速的Whisper实现

在人工智能范畴中,高效的语音转文本处理是不可或缺的一环。今天,我们向您推荐一款名为Lightning Whisper MLX的开源项目,它对原生Whisper举行了深度优化,尤其在Apple Silicon平台上体现出令人惊叹的速率提拔。
项目介绍

Lightning Whisper MLX是一个针对苹果M系列芯片的高性能Whisper实现。通过独特的优化手段,它实现了比Whisper C++快10倍,乃至比现有MLX Whisper实现快4倍的解码速率。该项目不仅提供了批量解码以提高吞吐量,还接纳了经过蒸馏和量化处理的模型,从而在保证效率的同时不失精度。
https://blog.csdn.net/./speed_image.png
项目技能分析



[*] 批量解码(Batched Decoding):通过将多个音频片断一起处理,显著提高了整体处理速率,尤其恰当处理大量数据。
[*] 蒸馏模型(Distilled Models):这些轻量级模型在保持良好性能的同时镌汰了解码所需的时间,因为它们的层数较少。
[*] 量化模型(Quantized Models):通过低落模型权重的位宽,镌汰了内存操作的时间开销,进一步提拔了效率。
即将推出的功能:


[*]推测性解码(Speculative Decoding):结合助手模型举行预处理,有望在不牺牲正确性的前提下提高解码速率。
应用场景

无论是实时谈天应用、语音识别系统、智能助手,还是大规模的媒体分析和处理平台,Lightning Whisper MLX都能够以极致的速率为各类应用场景提供高效、可靠的语音转文本服务。
项目特点



[*] 安装简便:通过一行pip命令即可轻松安装。
[*] 模型选择丰富:支持多种大小和语言版本的模型,满足不同需求。
[*] 机动的配置:允许用户根据装备资源调解批处理大小,以均衡速率与内存占用。
[*] 兼容性强:特别是针对Apple Silicon的优化,让苹果用户的体验更上一层楼。
以下是一个简朴的使用示例:
from lightning_whisper_mlx import LightningWhisperMLX

whisper = LightningWhisperMLX(model="distil-medium.en", batch_size=12, quant=None)

text = whisper.transcribe(audio_path="/audio.mp3")['text']

print(text)
感谢项目创建者Mustafa,以及项目实现的底子Awni的工作,以及启发源Vaibhav的创新精神。立刻尝试Lightning Whisper MLX,让

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 推荐:Lightning Whisper MLX —— 专为Apple Silicon优化的闪电般快速的Wh