周大 发表于 2024-8-23 15:02:17

国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解

腾讯混元基于MoE架构推出多模态理解大模型,该模型在架构、训练方法和数据处理方面进行了创新和深度优化,性能得到显著提升。在2024年8月发布的SuperCLUE-V评测中,腾讯混元多模态模型在国内排名位列第一,显示了其在中文多模态理解方面的强大实力。模型设计遵循简单、合理、可规模化原则,支持任意分辨率,面向通用场景和海量应用进行了优化。
来源:https://mp.weixin.qq.com/s/wVxbWgN2gyOKvcumS9ZRFQ
页: [1]
查看完整版本: 国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解