Llama模仿Diffusion多模态涨分30%!不卷数据不烧卡,只需共享注意力分布

[复制链接]
周大 发表于 2025-2-17 15:04:51 | 显示全部楼层 |阅读模式
Lavender系统,通过模仿Stable Diffusion的交叉注意力机制,使多模态大模型(如Llama-3.2)性能大幅提升。仅用1天训练和2.5%常规数据量,性能提升30%,特别是在分布外医学任务上提升68%。该系统采用LoRA技术防止过拟合,在16项视觉-语言任务中超越当前最优模型50%,并在未专门训练的医学领域表现出色。此外,代码、模型和训练数据已全部开源。
来源:https://mp.weixin.qq.com/s/9qlXXGXTKh9GVNMG6V58eA

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-20 17:13 , Processed in 0.285479 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表