A Time Series is Worth 64 Words: Long-term Forecasting with Transformers (PatchTST):PatchTST是一种高效的基于Transformer的多变量时间序列预测与自监督表示学习模型,核心在于时间序列的子序列分割和通道独立性设计。子序列分割保留了局部语义信息,显著降低了计算和内存需求,并扩展了历史信息的覆盖范围。通道独立性使单变量时间序列共享嵌入和权重,提高了模型效率和泛化能力。
模型更新日期和预测日期:
未来1日信号预测排序前10:
未来1日信号预测排序末10: