靠浦ai课堂's Archiver
版块
›
靠浦ai资讯
› 比LoRA更高效!上交大&哈佛推出新微调框架,瞄准特定任务方向
周大
发表于 2024-9-16 14:50:03
比LoRA更高效!上交大&哈佛推出新微调框架,瞄准特定任务方向
上海交通大学和哈佛大学研究人员提出LoRA-Dash,一种高效模型微调方法。该方法在参数量大幅减少的情况下,效果与LoRA相当。通过严格定义TSD并分析其性质,LoRA-Dash进一步释放了TSD在下游任务中的潜力。实验显示,LoRA-Dash在多个任务上均优于LoRA。
来源:https://mp.weixin.qq.com/s/4S8ORbMpwcB_iXDbxgrHEw
页:
[1]
查看完整版本:
比LoRA更高效!上交大&哈佛推出新微调框架,瞄准特定任务方向