模型微调技术

Parameter Efficient Fine Tuning (PEFT)和Low Rank Adaptation (LoRA)是2种非常重要的模型微调方法。这两种方法只微调模型的一小部分(额外的)参数,同时冻结预训练模型的大部分参数,从而大大降低了计算和存储成本。尤其是LoRA,它在Transformer架构的每一层中注入可训练的秩分解矩阵,从而大大减少了下游任务的可训练参数数量。而且,LoRA的表现与完全微调的模型质量相当或更好,尽管它的可训练参数更少,训练吞吐量更高,并且与适配器不同,它没有额外的推理延迟。

你可能感兴趣的:(语言模型)