模型微调与实战——loRa(一)微调允许我们仅调整模型的部分层来符合新任务的需求,而不是训练整个模型。这使得模型训练的参数可以更少、训练更快。模型微调可以帮助预训练模型克服其通用性、偏见、分布差距,而针对性地改进来适应新任务,从而获得最佳效果。