LLaMA-Factory 微调 Qwen2-VL 进行人脸情感识别(二)

在上一篇文章中,我们详细介绍了如何使用LLaMA-Factory框架对Qwen2-VL大模型进行微调,以实现人脸情感识别的功能。本篇文章将聚焦于微调完成后,如何调用这个模型进行人脸情感识别的具体代码实现,包括详细的步骤和注释。

模型调用步骤

  1. 环境准备:确保安装了必要的Python库。
  2. 加载微调后的模型:使用Hugging Face的transformers库加载微调后的模型和图片处理器。
  3. 图片预处理:对待识别的图片进行预处理,包括缩放、归一化等操作,以适应模型的输入要求。
  4. 模型预测:将预处理后的图片输入到模型中,进行情感预测。
  5. 结果输出:输出模型预测的情感类别。

代码实现

import os
import torch
from PIL import

你可能感兴趣的:(关于大模型的那些事儿,llama,人工智能,深度学习,chatgpt)