本帖最后由 demacia 于 2024-3-31 00:04 编辑
python3 -m wyoming_faster_whisper \
--uri 'tcp://0.0.0.0:10300' \
--data-dir /data \
--download-dir /data \
--local_files_only=True \
--language zh \
--log-format='%(asctime)s [%(levelname)s]%(message)s' \
--device=cuda \
--model medium \
--initial-prompt '以下是普通话的句子'
没改代码,只是提了个PR,让有模型缓存的不在请求网络拉取和检查模型,启动快点。
https://github.com/hass-demacia/ ... 85aa9569ab1e06fef11。有网络开代理的可以忽略这个pr。
正常逻辑,应该是基于nvdia的cudnn的基础镜像打一个镜像,应该也是可以的,只不过作者项目里面没有维护Dockerfile,就不强求docker了。
|