本地部署_ASR工具_Whisper
1 简介
Whisper 是 OpenAI 的语音识别系统(几乎是最先进),它是免费的开源模型,可供本地部署。
2 docker
https://hub.docker.com/r/onerahmet/openai-whisper-asr-webservice
3 github
https://github.com/ahmetoner/whisper-asr-webservice
4 运行
1 | nvidia-docker run -d --gpus all -p 9000:9000 -e ASR_MODEL=base -e ASR_ENGINE=openai_whisper onerahmet/openai-whisper-asr-webservice:latest-gpu |
image 大小:11.5G
运行后,即可在 9000 端口通过 swagger 调用,我先用手机录了一些简单的中文,识别效果还不错,除了第一次调用时可能是下载和加载模型时间比较长,后面再调用速度就很快。
又用它识别了一个 25 分钟的 mp3(约 27M),是一位小哥哥 B 站视频对应的音频文件,识别时间约为不到 1 分钟,使用 GPU 内存占用在 1G 之内,尽管有一小部分乱码和一些重复,但整体效果不错。
我觉得速度和效果都相当美丽,绝对可以作为一些收费产品的平替了~~
5 注意事项
- 上传的音频文件使用时尽量不要用中文文件名
6 参考
All articles in this blog are licensed under CC BY-NC-SA 4.0 unless stating additionally.