LoRA:低资源微调技术的新探索

[复制链接]
周大 发表于 2024-5-24 18:03:33 | 显示全部楼层 |阅读模式
一项最新研究揭示了LoRA,一种用于大模型微调的高效方法,虽在资源效率上优于全参数微调,但在处理编程和数学任务时效果略逊一筹。然而,LoRA在正则化和遗忘控制方面表现出色,特别是在保持生成多样性上。研究还发现,全参数微调在这些任务中学习的权重扰动并不低秩,对LoRA的有效性提出疑问。尽管如此,LoRA在特定场景下仍有优化潜力,值得关注和进一步研究。
来源:https://mp.weixin.qq.com/s/mVevNuhP6fZtODwaBDZYiA

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-8 10:23 , Processed in 0.296595 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表