国内最大MoE开源大模型来了,还基于此搞出个火遍港台的AI聊天应用

[复制链接]
周大 发表于 2024-9-13 15:13:34 | 显示全部楼层 |阅读模式
元象 XVERSE 发布中国最大 MoE 开源模型 XVERSE-MoE-A36B,参数总量 255B,实现性能“跨级”跃升,训练时间减少 30%,推理性能提升 100%,大幅降低每 token 成本。该模型在多个权威评测中超越同类模型,并应用于港台娱乐应用排行榜前列的 APP Saylo。元象在 MoE 训练范式上进行多项技术创新,推动模型性能达到业界领先水平。
来源:https://mp.weixin.qq.com/s/vE4Ls9h907tPhtiY-XO6Mg

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-18 15:04 , Processed in 0.263889 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表