新智元 03月09日
精度效率双冠王!时序预测新范式TimeDistill:跨架构知识蒸馏,全面超越SOTA
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

TimeDistill是一种跨架构知识蒸馏框架,它巧妙地将复杂模型(如Transformer和CNN)的预测能力迁移到轻量级的MLP模型中。该框架专注于提取时序数据中的多尺度和多周期模式,从而显著提升了MLP的预测精度,同时保持了高效的计算能力。通过知识蒸馏,TimeDistill在多个数据集上超越了教师模型的SOTA表现,并实现了最佳的效率平衡。该方法为构建高效、高精度的时序预测模型提供了全新思路,并在推理速度和参数量上实现了显著优化。

🔍TimeDistill通过对比分析MLP与其他时序模型的预测模式,发现MLP在部分样本上表现出色,突显了其与教师模型之间的优势互补,强调了通过知识蒸馏学习互补知识的重要性。

📈TimeDistill聚焦于时间域的多尺度模式和频率域的多周期模式,通过多尺度蒸馏在不同时间分辨率上分别下采样教师模型与学生模型的预测和中间特征,确保学生模型捕捉粗粒度的整体趋势与细粒度的瞬时变化。同时,通过多周期蒸馏利用傅里叶变换分析频域信息,将教师模型在周期性模式上的优势传递给学生模型。

💡TimeDistill通过实验验证了模型设计的合理性,即使去掉Ground Truth监督信号,依然能够显著提升MLP预测精度,表明其可以从教师模型中有效学习到丰富的知识。在多个数据集上进行实验,结果显示TimeDistill在7个数据集的MSE指标优于基线教师模型,并在所有数据集的MAE指标上均取得最佳表现。

新智元 2025-03-09 12:52 中国香港



  新智元报道  

编辑:LRST

【新智元导读】TimeDistill通过知识蒸馏,将复杂模型(如Transformer和CNN)的预测能力迁移到轻量级的MLP模型中,专注于提取多尺度和多周期模式,显著提升MLP的预测精度,同时保持高效计算能力,为时序预测提供了一种高效且精准的解决方案。

如何在保证预测精度的同时降低计算成本,是时序预测应用面临的核心挑战。

传统的时序预测模型(如基于Transformer或CNN的复杂结构)虽在精度上表现卓越,但计算开销往往难以满足实际部署需求。而轻量级MLP(多层感知器)虽然具备较高的推理速度,却常因建模能力不足,导致预测精度较低。

这引出了一个有趣的问题:是否可以将MLP与其他先进架构(如Transformer和CNN)结合,以构建一个既强大又高效的模型?

一个直觉的解决方案是知识蒸馏(Knowledge Distillation),通过将更大、更复杂的模型(教师模型)的知识迁移到较小、更简单的模型(学生模型),使其在提升性能的同时实现更高的计算效率。

近期,来自美国埃默里大学、澳大利亚格里菲斯大学等多地的华人科研团队联合提出了一种跨架构知识蒸馏(Cross-Architecture Knowledge Distillation)框架TimeDistill,将MLP作为学生模型,其他复杂先进架构(如Transformer和CNN)作为教师模型,通过蒸馏复杂模型的优势至轻量级模型,实现计算负担大幅降低的同时显著提升预测精度。

相比于教师模型,TimeDistill加快了最多7倍推理速度,降低了最多130倍参数量,同时TimeDistill还在多个数据集上展现了超越教师模型的SOTA表现,为构建高效、高精度的时序预测模型提供了全新思路。

论文链接:https://arxiv.org/pdf/2502.15016

通过蒸馏,TimeDistill在多个数据集上取得超越教师模型的预测精度并实现了最佳的效率平衡。

TimeDistill模型方法

设计思路

首先,研究人员对MLP与其他时序模型的预测模式进行了对比分析。

研究发现,尽管MLP的整体预测精度较低,但往往在某一部分样本上表现出色,突显了其与教师模型之间存在一定的优势互补,强调了通过知识蒸馏向教师模型的学习互补知识的重要性。

为了进一步探索需要蒸馏的时序「知识」,研究人员聚焦于两个关键的时序模式:

因此,为了增强MLP的时序预测能力,从教师模型中蒸馏并整合多尺度和多周期模式至关重要。

跨架构知识蒸馏(Cross-Architecture Distillation)

对于任意教师模型,TimeDistill均能有效提炼其在时序预测中的多种模式,并将其压缩进轻量学生模型(例如MLP),使后者具备更强的预测能力。

其中即学生模型的预测,即学生模型的中间特征,S即预测长度,D即中间特征维度,C即变量数量。下标为t即代表教师模型。

多尺度、多周期特征的系统性提炼

多尺度蒸馏(Multi-Scale Distillation):在不同的时间分辨率上分别下采样教师模型与学生模型的预测和中间特征,确保学生模型同时捕捉粗粒度的整体趋势与细粒度的瞬时变化。

多周期蒸馏(Multi-Period Distillation):通过傅里叶变换(FFT)分析频域信息,将教师模型在周期性模式上的优势提炼并传递给学生模型,使后者在应对长周期波动(如季节、年度周期)与短周期干扰(如日内流量峰谷变化)时,都能维持稳定高精度。

由于FFT得到的频谱往往包含很多低频噪声,研究人员通过低温蒸馏使得频率(周期)分布更加锋利,使得学生模型可以直接学习最显著的频率(周期)分量。

理论解释

从理论上,研究人员将多尺度和多周期蒸馏损失诠释为一种数据增强策略,类似于分类任务中的标签平滑(Label Smoothing)。

蒸馏过程实际上等同于将教师模型的预测结果与真实标签进行混合,类似生成了经过Mixup变换的增广样本,这种数据增强带来了以下三个益处:增强泛化,显式融合多种模式,稳定训练,为TimeDistill的优异表现提供了理论支撑。

实验效果

效果全面领先

TimeDistill在8个时序数据集上进行实验,其中7个数据集的MSE指标优于基线教师模型,在所有数据集的MAE指标上均取得最佳表现,展现出卓越的预测能力。

兼容多种教师模型

TimeDistill适用于多种教师模型,能够有效蒸馏知识并提升MLP学生模型的性能,同时相较教师模型本身也有显著提升。

兼容多种学生模型

TimeDistill不仅适用于MLP结构,还可以增强轻量级学生模型的性能。例如,在以ModernTCN作为教师模型的实验中,TimeDistill使两个轻量模型TSMixer和LightTS的MSE分别降低6.26%和8.02%,验证了其在不同学生模型上的适应性。

兼容多种回溯窗口长度

时序模型的预测性能往往随回溯窗口(历史观测长度)变化而波动,而TimeDistill在所有窗口长度下均能提升MLP表现,甚至超越教师模型,体现出对不同时间依赖模式的强大适应能力。

消融实验

TimeDistill通过消融实验进一步验证了模型设计的合理性。值得注意的是,即使去掉Ground Truth监督信号(w/o sup),TimeDistill仍然能够显著提升MLP预测精度,表明其可以从教师模型中有效学习到丰富的知识。

总结

TimeDistill的提出,标志着时序预测领域正在向更高效、更通用的方向发展。它不仅展示了轻量级模型在蒸馏复杂模型知识后所能达到的卓越性能,还为学术界和工业界提供了新的思考方向:

如何在计算成本、模型规模与预测精度之间找到最优平衡?

如何通过知识蒸馏让轻量模型超越其原有能力上限?

未来,期待更多研究机构与企业推动TimeDistill在金融、能源、流量预测等领域的广泛应用,为数据驱动时代的时序分析注入新的动力。

参考资料:

https://arxiv.org/pdf/2502.15016





阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

TimeDistill 知识蒸馏 时序预测 MLP 人工智能
相关文章