Noam Shazeer作为Transformer的重要奠基者,在AI领域持续定义技术范式。他提出的《Attention Is All You Need》成为大语言模型的基础,同时在MoE、Adafactor、MQA和GLU等技术上也有关键贡献。沙哥曾离开谷歌创立Character.AI,后以27亿美元被谷歌收购并回归,继续担任重要技术领导角色。其研究总能提前数年预见行业趋势,为当今主流模型架构的发展提供了核心支持。
来源:https://mp.weixin.qq.com/s/USqd0EDbJtbU87hV7jdV5Q