AI 学习笔记:在 Macbook M1上对 DeepSeek进行无 GPU 环境下的 SFT微调,Transformers+LoRA,已跑通并出结果。

一、背景

通用模型除了挂载知识库,去回答垂类问题以外,还有就是做 SFT 的微调,而大多数人其实是没有英伟达显卡的,但又挡不住学习的渴望,还想在老旧的电脑上去尝试微调,而我翻看了很多教程,都没有一个完整能够完全跑通的完整案例,决定一定要整一个出来。

二、目标

在没有专业显卡的普通笔记本上去做 Deepseek 的微调,将它由一个通用模型改造为能够回答专业医疗问题的模型。它的特点是:微调电脑只有集成显卡,纯 CPU 微调,SFT 模式,transformers+LoRA,医疗类的垂类数据集。

三、最终效果

微调前胡说,给定数据集微调后,回答相对靠谱了。

AI 学习笔记:在 Macbook M1上对 DeepSeek进行无 GPU 环境下的 SFT微调,Transformers+LoRA,已跑通并出结果。_第1张图片

四、整体三个步骤

第一步是下载模型和做本地的基础配置,让模型部署在本地,还能能够跑起来,看看它对医疗类问题如何解答。
第二步是核心,准备好数据集,建立python工程,编码,调参数,投喂数据,让模型开始微调,并且对微调后的模型进行保存。这个过程非常麻烦,虽然最终能跑的参数设置已在代码中了,但这都是我屡试屡不爽的调出来的,未必是最优,但确实能跑了。
第三步是做拿微调后的模型做推理验证,看看与之前有没有不一样,是否能够能够回答专业问题了。

五、开整

心急的同学直接跳到第 5 步:

1)先自检一下本机的配置,建议至少要达到我这个五年前的配置,低了会出现什么情况,我也不知道,当然是越高越好。
AI 学习笔记:在 Macbook M1上对 DeepSeek进行无 GPU 环境下的 SFT微调,Transformers+LoRA,已跑通并出结果。_第2张图片

留个 20G 左右的空闲存储空间,用于保存原始模型、数据集、微调的过程模型。

<

你可能感兴趣的:(人工智能,deepseek,微调,SFT,lora,macbook,微调,纯,CPU,微调)