从零开始,在AutoDL云服务器上跑通Qwen2.5-VL-7B-Intruct

 说在前面

纯小白一个,边学边做,记录学习过程。

参考资料:

Qwen2-VL 视觉大模型 快速 Qwen2-VL-7B-Instruct部署_failed to download model qwen2-vl-instruct after m-CSDN博客

1.从零部署qwen2.5-VL-Instruct模型_哔哩哔哩_bilibili

如果具备以下条件,就可以达成标题的目标了:

1、科学上网,因为下载Qwen-VL项目需要通过github

2、AutoDL需要充值10块钱

3、两天时间

进入云服务器

注册登录https://www.autodl.com/market/list

如下图操作:

如下图操作:

如下图操作:进入后关机选择“无卡模式开机”,这个模式费用低,用于非运行大模型操作的其他场景,例如:编码,下载,配置环境等。

如下如操作,无卡模式下点击“JupyterLab”

下载基础模型

千问2.5大模型官方地址:魔搭社区

如下图操作,先直接下载到本地,官方推荐的SDK下载方式,可以尝试下SDK下载不稳定就先下载到本地。

在服务器中创建模型存放目录

如下图操作,先在JupyterLab中创建一个/autodl-tmp/Qwen/Qwen2.5-VL-7B-Instruct 目录,

注意:/autodl-tmp 目录是数据盘,其他的文件夹都是系统盘。

上传模型至服务器,文件比较大,需要一些时间。

项目安装

​
git clone https://github.com/QwenLM/Qwen2-VL #这一步需要科学上网,服务器不可以,建议先下载到本地再上传。

cd Qwen2-VL

pip install qwen-vl-utils[decord]

pip install transformers

pip install 'accelerate>=0.26.0'

​

准备脚本及测试图片

如下图操作,创建一个文件夹用于存放需推理的图片,创建一个.py脚本用于写执行代码

如下图操作,进入魔搭社区

复制该测试脚本到我们创建的“text.py”

如下图操作,打开test.py,修改三处路径

执行

如下图操作,关机后直接开机,非无卡模式。

如下图操作,等待执行结果即可

你可能感兴趣的:(服务器,运维,AutoDL,Qwen2.5-VL)