MoRA:打破LoRA束缚,引领大模型高效微调

[复制链接]
周大 发表于 2024-6-1 15:59:34 | 显示全部楼层 |阅读模式
北京航空航天大学近日推出MoRA,一项创新的参数高效微调技术,旨在超越当前热门的LoRA。MoRA利用高阶方阵更新,打破LoRA的低秩限制,提高了模型的学习和记忆能力。在多项实验中,MoRA在记忆任务、微调场景及从头训练中均优于LoRA,显示出强大的性能和潜力,为大模型微调提供了新路径。
来源:https://mp.weixin.qq.com/s/w4lgx6EojEk1OoJ29AYCtA

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-17 11:28 , Processed in 0.291862 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表