周大 发表于 2024-9-16 14:50:03

比LoRA更高效!上交大&哈佛推出新微调框架,瞄准特定任务方向

上海交通大学和哈佛大学研究人员提出LoRA-Dash,一种高效模型微调方法。该方法在参数量大幅减少的情况下,效果与LoRA相当。通过严格定义TSD并分析其性质,LoRA-Dash进一步释放了TSD在下游任务中的潜力。实验显示,LoRA-Dash在多个任务上均优于LoRA。
来源:https://mp.weixin.qq.com/s/4S8ORbMpwcB_iXDbxgrHEw
页: [1]
查看完整版本: 比LoRA更高效!上交大&哈佛推出新微调框架,瞄准特定任务方向