LLM工业级自进化:北邮与腾讯AI Lab提出MoE-CL架构,解决大模型持续学习核心痛点

[复制链接]
周大 发表于 2025-9-30 14:17:49 | 显示全部楼层 |阅读模式
北邮与腾讯联合提出 MoE-CL 框架,用于大语言模型的自进化持续学习。该方法结合任务专属与共享 LoRA 专家,并引入 GAN 抑制噪声,在 MTL5 和 Tencent3 基准上平均准确率优于现有方法,反向迁移性能提升明显。腾讯真实场景测试中剔除率达 28.8%,人工介入成本降低 15.3%,展现出优异的稳定性与工业应用潜力。
来源:https://mp.weixin.qq.com/s/RuWZSV6xDfdESSxrXjv4_g

搜索|Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-10-9 23:55 , Processed in 0.270861 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表