混合专家更有主见了,能感知多模态分情况行事,Meta提出模态感知型专家混合

[复制链接]
周大 发表于 2024-8-10 15:15:41 | 显示全部楼层 |阅读模式
Meta FAIR团队推出了一种新的单一Transformer架构——MoMa模态感知型专家混合架构,旨在解决混合模态基础模型存在的局限性。该架构通过模态感知型稀疏性技术和宽度扩展方法提高了模型效率和性能。实验结果显示,MoMa模型在预训练损失、扩展性能和下游任务等方面均表现出色,尤其是在生成混合模态长回答任务方面超越了很多商用模型。
来源:https://mp.weixin.qq.com/s/1FNqu0CwPmMFuDTMhli7WA

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-9-19 09:41 , Processed in 0.287839 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表