第四节课[XTuner微调]作业

文章目录

  • 前言
  • 作业
    • 基础作业-XTuner InternLM-Chat 个人小助手认知微调实践

前言

XTuner

做在第三节课LangChain作业之前,因为第三节课没想好找哪个领域,等第三节课作业做了一起部署。

作业

基础作业-XTuner InternLM-Chat 个人小助手认知微调实践

第四节课[XTuner微调]作业_第1张图片

然后中间瓜兮兮地不小心关了终端了,重新开始。

第四节课[XTuner微调]作业_第2张图片
可以看到在第二个epoch训练到一半的时候就已经基本完成了,为了节约时间,在第二个epoch保存权重之后,我停止了训练。

然后继续按照教程的走,将模型进行参数转换和合并。

转换结果

.
├── added_tokens.json
├── config.json
├── configuration_internlm.py
├── generation_config.json
├── modeling_internlm.py
├── pytorch_model-00001-of-00008.bin
├── pytorch_model-00002-of-00008.bin
├── pytorch_model-00003-of-00008.bin
├── pytorch_model-00004-of-00008.bin
├── pytorch_model-00005-of-00008.bin
├── pytorch_model-00006-of-00008.bin
├── pytorch_model-00007-of-00008.bin
├── pytorch_model-00008-of-00008.bin
├── pytorch_model.bin.index.json
├── special_tokens_map.json
├── tokenization_internlm.py
├── tokenizer.model
└── tokenizer_config.json

最后部署网页demo。这里就用之前课程的文件,更改模型路径即可。

第四节课[XTuner微调]作业_第3张图片
这么多“哦”有一种“癫佬”感……

你可能感兴趣的:(InternLM大模型实战,语言模型,人工智能)