LoRA:低资源微调技术的新探索
一项最新研究揭示了LoRA,一种用于大模型微调的高效方法,虽在资源效率上优于全参数微调,但在处理编程和数学任务时效果略逊一筹。然而,LoRA在正则化和遗忘控制方面表现出色,特别是在保持生成多样性上。研究还发现,全参数微调在这些任务中学习的权重扰动并不低秩,对LoRA的有效性提出疑问。尽管如此,LoRA在特定场景下仍有优化潜力,值得关注和进一步研究。来源:https://mp.weixin.qq.com/s/mVevNuhP6fZtODwaBDZYiA
页:
[1]