windows下玩转vllm:在wsl下安装vllm后续,设置modelscope作为下载源

文章目录

  • 前言
    • 所涉及的之前的关键步骤
    • 解决模型权重下载网络不通畅的问题
  • vllm和modelscope整合后的bug
  • 附录 ImportError: cannot import name '_try_login' from 'modelscope.utils.hf_util' 全部报错信息


前言

之前,咱们说了,由于windows不支持直接部署vllm,所以要么采用wsl,要么采用docker。我们目前尝试的是在wsl下进行vllm的安装。

所涉及的之前的关键步骤

wsl

启动默认wsl分发

source vllm/bin/activate

激活咱之前创建的虚拟环境。

解决模型权重下载网络不通畅的问题

咱们还说了,vllm默认是可以自己去网上下载模型的权重文件的。只不过会从huggingface下载。但是呢,我们经常会遇到huggingface无法访问的情况,因此可以使用

export VLLM_USE_MODELSCOPE=True

来设置modelscope而非huggingface作为模型权重下载的源头。

vllm和modelscope整合后的bug

理论上来说,我们只需要再执行:

vllm serve Qwen/Qwen2.5-0.5B-Instruct

就可以。

但我这里遇到了一个错误

你可能感兴趣的:(Dify与Langflow,智能体(Agent),知识库,人工智能)