腾讯发布最大开源MoE模型Hunyuan-Large

[复制链接]
周大 发表于 2024-11-6 14:25:08 | 显示全部楼层 |阅读模式
腾讯发布了开源MoE模型Hunyuan-Large,该模型拥有3890亿总参数和520亿激活参数,性能超越Llama 3.1 405B等开源旗舰,支持256k上下文长度。Hunyuan-Large基于腾讯内部混元大模型技术,已在内部业务中应用。开源版本包括预训练模型、微调模型和FP8量化的微调模型,免费商用。技术报告详细介绍了MoE的Scaling Law公式、混合路由策略、高质量合成数据等。模型在长文处理能力、推理加速、后训练优化等方面进行了多项优化。腾讯计划逐步开源中小型号模型,适应更多开发者需求。
来源:https://mp.weixin.qq.com/s/KR81atNl5yhL04T4BHoIgQ

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-17 15:22 , Processed in 0.272886 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表