微软清华合作推出MH-Mo多头混合专家模型提升AI理解力

[复制链接]
周大 发表于 2024-5-14 15:16:21 | 显示全部楼层 |阅读模式
微软和清华大学的研究人员提出了多头混合专家(MH-MoE)模型,以解决当前混合专家模型存在的低激活率和无法细粒度理解问题。MH-MoE利用多头机制提高专家激活率,达到90.71%,并在各种语言和多模态建模任务中展现出更高效的学习能力和更强的语义理解。实验结果显示,MH-MoE在多个评估标准下优于现有模型,证明了其在提升模型性能方面的潜力。
来源:https://mp.weixin.qq.com/s/ZCRyb63M2DL4hOQh7uxxaw

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-4-7 21:33 , Processed in 0.320037 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表