EMNLP2025 | 通研院揭秘MoE可解释性,提升Context忠实性!

[复制链接]
周大 发表于 2025-11-15 15:10:39 | 显示全部楼层 |阅读模式
北京通用人工智能研究院团队在EMNLP 2025发表研究,提出Router Lens与CEFT方法,首次系统揭示MoE模型中存在专注利用上下文信息的“上下文忠实专家”。通过轻量路由微调识别这些专家,CEFT仅微调关键参数,在SQuAD、NQ等任务上达到或超越全参数微调效果,训练参数减少达13.8倍,并显著缓解灾难性遗忘,为高效、可解释的大模型优化提供新范式。
来源:https://mp.weixin.qq.com/s/UNPQeyibGZ9jZJkgfyCkVQ

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-11-28 00:44 , Processed in 0.254913 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表