国内首个自研MoE多模态大模型,揭秘腾讯混元多模态理解

[复制链接]
周大 发表于 2024-8-23 15:02:17 | 显示全部楼层 |阅读模式
腾讯混元基于MoE架构推出多模态理解大模型,该模型在架构、训练方法和数据处理方面进行了创新和深度优化,性能得到显著提升。在2024年8月发布的SuperCLUE-V评测中,腾讯混元多模态模型在国内排名位列第一,显示了其在中文多模态理解方面的强大实力。模型设计遵循简单、合理、可规模化原则,支持任意分辨率,面向通用场景和海量应用进行了优化。
来源:https://mp.weixin.qq.com/s/wVxbWgN2gyOKvcumS9ZRFQ

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-5-18 16:19 , Processed in 0.306645 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表