2024全球机器学习大会聚焦大模型技术演进与优化
2024全球机器学习技术大会特设“大语言模型技术演进”分论坛,多位专家分享了Transformer效率优化、合成指令优化、多模态跨模态对齐等最新研究成果。王炳宁介绍了GQA、MQA和MLA等优化策略,Michael Wong探讨了AI硬件和软件的优化,刘广介绍了Infinity Instruct项目,吴凌翔分享了紫东太初多模态大模型的创新成果,鱼哲提出了生成式AI落地的“颗粒度”和“责任度”概念,孟令公介绍了大模型推理性能的优化实践,彭厚文分享了腾讯混元多模态大模型的技术实践。来源:https://mp.weixin.qq.com/s/Ldk__7iUQpKCrXuFi60FWA
页:
[1]