千问2.5-VL-7B的推理、微调、部署_笔记2

接上篇:部署千问2.5-VL-7B_笔记1-CSDN博客

这里主要记录微调过程

一、模型微调

这里也使用ms-swift对qwen2.5和qwen2-vl进行自我认知微调和图像OCR微调,并对微调后的模型进行推理。ms-swift是魔搭社区官方提供的LLM工具箱,支持300+大语言模型和80+多模态大模型的微调到部署。ms-swift开源地址:https://github.com/modelscope/ms-swift

开始微调之前,确保你的环境已安装

1、安装ms-swift和qwen2.5-vl的环境(上篇已经安装过qwen2.5-vl的环境这里不再重复)

git clone https://github.com/modelscope/ms-swift.git

conda create -n swift python==3.10 -y

conda activate swift

cd ms-swift

pip install -e .[llm]

这里使用自定义数据集进行微调

未完有时间更新..

参考:Qwen2.5 全链路模型体验、下载、推理、微调、部署实战!

你可能感兴趣的:(视觉大模型_1,笔记)