建立fast-whisper 环境时报错 Unable to load any of {libcudnn_ops.so.9.1.0, libcudnn_ops.so.9.1, libcudnn_ops.so.9, libcudnn_ops.so}
fast-whisper 官网地址:https://github.com/SYSTRAN/faster-whisper
建立环境时,依照官方的创立环境要求履行的
- 运用
conda create -n fast_whisper python=3.9
创立虚拟环境 - 履行
pip install faster-whisper
装置库 pip install nvidia-cublas-cu12 nvidia-cudnn-cu12==8.*
- 下降numpy版别,fast-whisper只能根据numpy 1.* 版别
关于linux上创立虚拟环境能够参阅 https://zhuanlan.zhihu.com/p/440548295
在运转示例的时分报错如下:
代码如下:
from faster_whisper import WhisperModel
model_size = "large-v3"
# Run on GPU with FP16
model = WhisperModel(model_size, device="cuda", compute_type="float16")
# or run on GPU with INT8
# model = WhisperModel(model_size, device="cuda", compute_type="int8_float16")
# or run on CPU with INT8
# model = WhisperModel(model_size, device="cpu", compute_type="int8")
segments, info = model.transcribe("test_wavs/whisper_test.wav", beam_size=5)
print("Detected language '%s' with probability %f" % (info.language, info.language_probability))
for segment in segments:
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
原因应该是没有装置cudnn相关库。
办法一:
下载cudnn装置包
去官网下载了对应的cudnn装置包,网址如下:https://developer.nvidia.com/rdp/cudnn-archive#a-collapse805-111
挑选对应的linux x86_64版别下载。
解压装置
参阅https://zhuanlan.zhihu.com/p/701577195
办法二:
直接在创立的虚拟环境中履行conda install cudnn
然后再运转即可运转成功。
我这边直接在虚拟环境中履行办法二后,程序即成功运转了,故此没有再持续验证办法一。