周大 发表于 2024-10-20 14:55:44

HydraLoRA:非对称LoRA架构提升多任务性能

来自澳门大学、德克萨斯大学和剑桥大学的研究者提出了一种新的非对称LoRA架构:HydraLoRA,旨在解决大型语言模型(LLMs)在适应新任务时面临的计算资源消耗问题。HydraLoRA通过共享A矩阵和多个独立B矩阵,避免任务间干扰,提高性能。实验结果显示,HydraLoRA在多个基准测试任务中优于现有PEFT方法,尤其在多任务和复杂领域表现突出。
来源:https://mp.weixin.qq.com/s/M03cU4KSWXWVfNviUbn4yQ
页: [1]
查看完整版本: HydraLoRA:非对称LoRA架构提升多任务性能