全球首次!时序大模型突破十亿参数,华人团队发布Time-MoE,预训练数据达3000亿个时间点
多所大学的华人科研团队合作开发了Time-MoE模型,采用混合专家架构,实现了24亿参数规模的时序预测,显著提升了预测精度和计算效率。团队还发布了Time-300B数据集,涵盖9个领域的3000亿个时间点,为时序任务提供了丰富的训练资源。实验结果显示,Time-MoE在零样本和全样本预测中均表现出色,标志着时序预测技术的重大突破。来源:https://mp.weixin.qq.com/s/LaYn0IJAOlN9Ufp_qus96Q
页:
[1]