精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA

[复制链接]
周大 发表于 2025-3-9 14:55:09 | 显示全部楼层 |阅读模式
TimeDistill是一种跨架构知识蒸馏框架,由中美澳多地科研团队提出。它通过将复杂模型(如Transformer和CNN)的知识迁移到轻量级MLP模型,显著提升了MLP的时序预测精度和计算效率。实验表明,TimeDistill相比教师模型推理速度加快最多7倍,参数量减少最多130倍,并在多个数据集上展现了超越教师模型的表现。此外,TimeDistill兼容多种教师、学生模型及回溯窗口长度,适应性强,为时序预测提供了高效精准的新思路。
来源:https://mp.weixin.qq.com/s/qsZ6HCQfUb-9UFIEpyRBFg

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-12 18:05 , Processed in 0.292987 second(s), 24 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表