Search

Article

x

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

Prediction of chaotic time series using hybrid neural network and attention mechanism

Huang Wei-Jian Li Yong-Tao Huang Yuan

Prediction of chaotic time series using hybrid neural network and attention mechanism

Huang Wei-Jian, Li Yong-Tao, Huang Yuan
PDF
HTML
Get Citation
  • Chaotic time series forecasting has been widely used in various domains, and the accurate predicting of the chaotic time series plays a critical role in many public events. Recently, various deep learning algorithms have been used to forecast chaotic time series and achieved good prediction performance. In order to improve the prediction accuracy of chaotic time series, a prediction model (Att-CNN-LSTM) is proposed based on hybrid neural network and attention mechanism. In this paper, the convolutional neural network (CNN) and long short-term memory (LSTM) are used to form a hybrid neural network. In addition, a attention model with softmax activation function is designed to extract the key features. Firstly, phase space reconstruction and data normalization are performed on a chaotic time series, then convolutional neural network (CNN) is used to extract the spatial features of the reconstructed phase space, then the features extracted by CNN are combined with the original chaotic time series, and in the long short-term memory network (LSTM) the combined vector is used to extract the temporal features. And then attention mechanism captures the key spatial-temporal features of chaotic time series. Finally, the prediction results are computed by using spatial-temporal features. To verify the prediction performance of the proposed hybrid model, it is used to predict the Logistic, Lorenz and sunspot chaotic time series. Four kinds of error criteria and model running times are used to evaluate the performance of predictive model. The proposed model is compared with hybrid CNN-LSTM model, the single CNN and LSTM network model and least squares support vector machine(LSSVM), and the experimental results show that the proposed hybrid model has a higher prediction accuracy.
      Corresponding author: Li Yong-Tao, lyotard@163.com
    [1]

    王世元, 史春芬, 钱国兵, 王万里 2018 物理学报 67 018401

    Wang S Y, Shi C F, Qian G B, Wang W L 2018 Acta Phys. Sin. 67 018401

    [2]

    梅英, 谭冠政, 刘振焘, 武鹤 2018 物理学报 67 080502

    Mei Y, Tan G Z, Liu Z T, Wu H 2018 Acta Phys. Sin. 67 080502

    [3]

    沈力华, 陈吉红, 曾志刚, 金健 2018 物理学报 67 030501

    Shen L H, Chen J H, Zeng Z G, Jin J 2018 Acta Phys. Sin. 67 030501

    [4]

    Han M, Zhang S, Xu M, Qiu T, Wang N 2019 IEEE Trans. Cybern. 49 1160

    [5]

    Han M, Zhang R, Qiu T, Xu M, Ren W 2019 IEEE Trans. Syst. Man Cybern 49 2144

    [6]

    Safari N, Chung C Y, Price G C D 2018 IEEE Trans. Power Syst. 33 590

    [7]

    熊有成, 赵鸿 2019 中国科学: 物理学 力学 天文学 49 92

    Xiong Y C, Zhao H 2019 Sci. China, Ser. G 49 92

    [8]

    Sangiorgio M, Dercole F 2020 Chaos, Solitons Fractals 139 110045

    [9]

    李世玺, 孙宪坤, 尹玲, 张仕森 2020 导航定位学报 8 65

    Li S X, Sun X K, Yin L, Zhang S S 2020 Journal of Navigation and Positionina 8 65

    [10]

    Boullé N, Dallas V, Nakatsukasa Y, Samaddar D 2019 Physica D 403 132261

    [11]

    唐舟进, 任峰, 彭涛, 王文博 2014 物理学报 63 050505

    Tang Z J, Ren F, Peng T, Wang W B 2014 Acta Phys. Sin. 63 050505

    [12]

    田中大, 高宪文, 石彤 2014 物理学报 63 160508

    Tian Z D, Gao X W, Shi T 2014 Acta Phys. Sin. 63 160508

    [13]

    王新迎, 韩敏 2015 物理学报 64 070504

    Wang Y X, Han M 2015 Acta Phys. Sin. 64 070504

    [14]

    吕金虎 2002 混沌时间序列分析及其应用 (武汉: 武汉大学出版社) 第57−60页

    Lu J H 2002 Chaotic Time Series Analysis and Application (Wuhan: Wuhan University Press) pp57−60 (in Chinese)

    [15]

    Packard N, Crutchfield J P, Shaw R 1980 Phys. Rev. Lett. 45 712

    [16]

    Takens F 1981 Dynamical Systems and Turbulence (Berlin: Springer) pp366−381

    [17]

    Martinerie J M, Albano A M, Mees A I, Rapp P E 1992 Phys. Rev. A 45 7058

    [18]

    Liangyue C 1997 Physica D 110 43

    [19]

    Lecun Y, Boser B, Denker J, Henderson D, Howard R, Hubbard W, Jackel L 1989 Neural Comput. 1 541

    [20]

    Goodfellow I, Bengio Y, Courville A 2016 Deep Learning (Cambridge: The MIT Press) p326

    [21]

    Kim Y 2014 arXiv: 1408.5882 [cs.CL]

    [22]

    Pascanu R, Mikolov T, Bengio Y 2013 Proceedings of the 30th International Conference on International Conference on Machine Learning Atlanta, USA, June 16−21 2013, p1310

    [23]

    Hochreiter S, Schmidhuber J 1997 Neural Comput. 9 1735

    [24]

    Chung J, Gulcehre C, Cho K, Bengio Y 2014 arXiv: 1412.3555 [cs.NE]

    [25]

    Mnih V, Heess N, Graves A, Kavukcuoglu K 2014 Proceedings of the 27th International Conference on Neural Information Processing Systems Montreal, Canada, December 8−13 2014, p2204

    [26]

    Yin W, Schütze H, Xiang B, Zhou B 2015 arXiv: 1512.05193 [cs.CL]

    [27]

    Vaswani A, Shazeer N, Parmar N, Uszkoreit J, Jones L, Gomez A N, Kaiser L, Polosukhin I 2017 Proceedings of the 31st International Conference on Neural Information Processing Systems Long Beach, USA, December 4−9 2017, p6000

  • 图 1  数据预处理过程

    Figure 1.  The process of data preprocessing.

    图 2  Att-CNN-LSTM模型

    Figure 2.  Att-CNN-LSTM model.

    图 3  一维卷积网络

    Figure 3.  One dimensional convolutional network.

    图 4  LSTM结构

    Figure 4.  The structure of LSTM.

    图 5  注意力模型

    Figure 5.  Attention model.

    图 6  Logistic序列预测

    Figure 6.  Logistic series prediction.

    图 7  Logistic序列预测相对误差

    Figure 7.  Logistic series prediction relative error.

    图 8  Lorenz(x)序列预测

    Figure 8.  Lorenz(x) series prediction.

    图 9  Lorenz(x)序列预测相对误差

    Figure 9.  Lorenz(x) series prediction relative error.

    图 10  太阳黑子序列预测

    Figure 10.  Sunspot series prediction.

    图 11  太阳黑子序列预测相对误差

    Figure 11.  Sunspot series prediction relative error.

    表 1  模型误差对比

    Table 1.  Model error comparison.

    RMSEMAEMAPERMSPE
    Att-CNN-LSTM0.0035030.0029350.53050.6767
    CNN-LSTM0.0068560.0054441.10641.7795
    LSTM0.0061690.0053161.15951.6887
    CNN0.0046700.0038490.88021.4019
    LSSVM0.0091580.0043071.36233.8604
    DownLoad: CSV

    表 2  模型运行时间对比

    Table 2.  Model running time comparison.

    模型Att-CNN-LSTMCNN-LSTMCNNLSTMLSSVM
    训练时间 /s312.730259.548.8215.4
    预测时间 /s0.530.490.250.210.47
    DownLoad: CSV

    表 3  模型误差对比

    Table 3.  Model error comparison.

    RMSEMAEMAPERMSPE
    Att-CNN-LSTM0.06790.05211.21822.1102
    CNN-LSTM0.24450.12293.884914.7893
    LSTM0.51520.390113.676743.7676
    CNN0.53560.381111.003233.5251
    LSSVM0.51010.36529.354335.5644
    DownLoad: CSV

    表 4  模型运行时间对比

    Table 4.  Model running time comparison.

    模型Att-CNN-LSTMCNN-LSTMCNNLSTMLSSVM
    训练时间 /s184.6193.984.2851.21202.4
    预测时间 /s0.470.550.200.230.45
    DownLoad: CSV

    表 5  模型误差对比

    Table 5.  Model error comparison.

    RMSEMAEMAPERMSPE
    Att-CNN-LSTM20.182917.182732.816742.3529
    CNN-LSTM30.565221.409367.434356.7217
    LSTM24.913718.281549.586262.6939
    CNN24.853418.467765.348044.1892
    LSSVM27.327119.437343.098756.6781
    DownLoad: CSV

    表 6  模型运行时间对比

    Table 6.  Model running time comparison.

    模型Att-CNN-LSTMCNN-LSTMCNNLSTMLSSVM
    训练时间 /s309.2291.376.553.3237.9
    预测时间 /s0.390.430.150.250.59
    DownLoad: CSV
  • [1]

    王世元, 史春芬, 钱国兵, 王万里 2018 物理学报 67 018401

    Wang S Y, Shi C F, Qian G B, Wang W L 2018 Acta Phys. Sin. 67 018401

    [2]

    梅英, 谭冠政, 刘振焘, 武鹤 2018 物理学报 67 080502

    Mei Y, Tan G Z, Liu Z T, Wu H 2018 Acta Phys. Sin. 67 080502

    [3]

    沈力华, 陈吉红, 曾志刚, 金健 2018 物理学报 67 030501

    Shen L H, Chen J H, Zeng Z G, Jin J 2018 Acta Phys. Sin. 67 030501

    [4]

    Han M, Zhang S, Xu M, Qiu T, Wang N 2019 IEEE Trans. Cybern. 49 1160

    [5]

    Han M, Zhang R, Qiu T, Xu M, Ren W 2019 IEEE Trans. Syst. Man Cybern 49 2144

    [6]

    Safari N, Chung C Y, Price G C D 2018 IEEE Trans. Power Syst. 33 590

    [7]

    熊有成, 赵鸿 2019 中国科学: 物理学 力学 天文学 49 92

    Xiong Y C, Zhao H 2019 Sci. China, Ser. G 49 92

    [8]

    Sangiorgio M, Dercole F 2020 Chaos, Solitons Fractals 139 110045

    [9]

    李世玺, 孙宪坤, 尹玲, 张仕森 2020 导航定位学报 8 65

    Li S X, Sun X K, Yin L, Zhang S S 2020 Journal of Navigation and Positionina 8 65

    [10]

    Boullé N, Dallas V, Nakatsukasa Y, Samaddar D 2019 Physica D 403 132261

    [11]

    唐舟进, 任峰, 彭涛, 王文博 2014 物理学报 63 050505

    Tang Z J, Ren F, Peng T, Wang W B 2014 Acta Phys. Sin. 63 050505

    [12]

    田中大, 高宪文, 石彤 2014 物理学报 63 160508

    Tian Z D, Gao X W, Shi T 2014 Acta Phys. Sin. 63 160508

    [13]

    王新迎, 韩敏 2015 物理学报 64 070504

    Wang Y X, Han M 2015 Acta Phys. Sin. 64 070504

    [14]

    吕金虎 2002 混沌时间序列分析及其应用 (武汉: 武汉大学出版社) 第57−60页

    Lu J H 2002 Chaotic Time Series Analysis and Application (Wuhan: Wuhan University Press) pp57−60 (in Chinese)

    [15]

    Packard N, Crutchfield J P, Shaw R 1980 Phys. Rev. Lett. 45 712

    [16]

    Takens F 1981 Dynamical Systems and Turbulence (Berlin: Springer) pp366−381

    [17]

    Martinerie J M, Albano A M, Mees A I, Rapp P E 1992 Phys. Rev. A 45 7058

    [18]

    Liangyue C 1997 Physica D 110 43

    [19]

    Lecun Y, Boser B, Denker J, Henderson D, Howard R, Hubbard W, Jackel L 1989 Neural Comput. 1 541

    [20]

    Goodfellow I, Bengio Y, Courville A 2016 Deep Learning (Cambridge: The MIT Press) p326

    [21]

    Kim Y 2014 arXiv: 1408.5882 [cs.CL]

    [22]

    Pascanu R, Mikolov T, Bengio Y 2013 Proceedings of the 30th International Conference on International Conference on Machine Learning Atlanta, USA, June 16−21 2013, p1310

    [23]

    Hochreiter S, Schmidhuber J 1997 Neural Comput. 9 1735

    [24]

    Chung J, Gulcehre C, Cho K, Bengio Y 2014 arXiv: 1412.3555 [cs.NE]

    [25]

    Mnih V, Heess N, Graves A, Kavukcuoglu K 2014 Proceedings of the 27th International Conference on Neural Information Processing Systems Montreal, Canada, December 8−13 2014, p2204

    [26]

    Yin W, Schütze H, Xiang B, Zhou B 2015 arXiv: 1512.05193 [cs.CL]

    [27]

    Vaswani A, Shazeer N, Parmar N, Uszkoreit J, Jones L, Gomez A N, Kaiser L, Polosukhin I 2017 Proceedings of the 31st International Conference on Neural Information Processing Systems Long Beach, USA, December 4−9 2017, p6000

  • Citation:
Metrics
  • Abstract views:  824
  • PDF Downloads:  88
  • Cited By: 0
Publishing process
  • Received Date:  12 June 2020
  • Accepted Date:  19 July 2020
  • Available Online:  15 December 2020
  • Published Online:  05 January 2021

Prediction of chaotic time series using hybrid neural network and attention mechanism

    Corresponding author: Li Yong-Tao, lyotard@163.com
  • School of Information & Electrical, Hebei University of Engineering, Handan 056038, China

Abstract: Chaotic time series forecasting has been widely used in various domains, and the accurate predicting of the chaotic time series plays a critical role in many public events. Recently, various deep learning algorithms have been used to forecast chaotic time series and achieved good prediction performance. In order to improve the prediction accuracy of chaotic time series, a prediction model (Att-CNN-LSTM) is proposed based on hybrid neural network and attention mechanism. In this paper, the convolutional neural network (CNN) and long short-term memory (LSTM) are used to form a hybrid neural network. In addition, a attention model with softmax activation function is designed to extract the key features. Firstly, phase space reconstruction and data normalization are performed on a chaotic time series, then convolutional neural network (CNN) is used to extract the spatial features of the reconstructed phase space, then the features extracted by CNN are combined with the original chaotic time series, and in the long short-term memory network (LSTM) the combined vector is used to extract the temporal features. And then attention mechanism captures the key spatial-temporal features of chaotic time series. Finally, the prediction results are computed by using spatial-temporal features. To verify the prediction performance of the proposed hybrid model, it is used to predict the Logistic, Lorenz and sunspot chaotic time series. Four kinds of error criteria and model running times are used to evaluate the performance of predictive model. The proposed model is compared with hybrid CNN-LSTM model, the single CNN and LSTM network model and least squares support vector machine(LSSVM), and the experimental results show that the proposed hybrid model has a higher prediction accuracy.

    • 非线性科学的研究涉及到社会科学和自然科学的各个领域, 如金融、电力、水文和天气等. 这些呈现出混沌现象的动力学系统中, 任一变量随时间演化而产生的混沌时间序列, 都蕴含着系统丰富的动力学信息, 而这些信息往往包含着具有重要价值的内容. 对混沌时间序列的研究, 就是要将其丰富的动力学信息提取出来, 并应用到实际中去. 在实际运用中, 对混沌时间序列进行预测一直以来都是研究的热点. 文献[1]提出一种分数阶最大相关熵的自适应滤波算法, 在混沌时间序列的预测中可以减少噪声影响, 预测结果准确率有所提升. 文献[2]提出了一种较为新颖的混沌时间序列预测方法, 使用自适应遗传算法优化大脑情感学习, 该方法能够有效地反映混沌时间序列的发展趋势, 预测结果也优于传统神经网络. 文献[3]提出一种贝叶斯框架下的鲁棒极端学习机, 利用高斯混合分布和变分法使预测模型可以对异常点有较好的鲁棒性. 文献[4]将改进的内核递推最小二乘算法运用于多元混沌时间序列的预测, 并证明了该预测方法的有效性. 文献[5]提出使用向量投影来改进传统的灰色关联分析模型, 能够在多元混沌时间序列预测中减少输入维度, 并提高预测精度. 为了降低混沌时间序列的非平稳性和非线性带来的预测误差, 文献[6]提出使用集合经验模态分解和奇异谱分析对混沌时间序列进行分解, 该方法在风能预测中取得了较好的表现.

      近年来, 随着深度学习技术和硬件技术法发展, 已有研究人员将深度学习算法运用到混沌时间序列的预测中, 文献[7]用长短期记忆网络(long short-term memory, LSTM)搭配合适的组合策略, 验证了在低维情况下LSTM在混沌时间序列预测上能够取得较好的效果; 文献[8]则进一步验证了使用LSTM预测混沌时间序列不仅能够取得较好的预测效果, 且预测模型具有较好的鲁棒性. 结合混沌理论和经验模态分解, 文献[9]使用LSTM搭建预测模型, 取得了可靠性高的预测结果, 且预测模型具有一定的泛化能力. 文献[10]利用卷积神经网络(convolutional neural networks, CNN)训练连续和离散的低维混沌时间序列生成一个分类器, 使其能够识别并分类高维状态下的混沌时间序列.

      相比最小支持向量机(LSSVM)[11,12]、极端学习机[3,13]等传统机器学习算法, LSTM和CNN等深度学习算法具有更强大的学习能力, 在处理回归问题上, 对非线性数据具有很好的逼近能力. 因此, 为了进一步提高混沌时间序列的预测精度, 本文结合混沌系统的相空间重构理论, 提出一种基于深度学习算法的混沌时间序列混合预测模型(Att-CNN-LSTM). 首先, 将获取的时间序列进行数据预处理, 即重构相空间和数据归一化. 然后提出利用注意力机制捕获CNN的相空间特征和LSTM的时间特征, 并对输出结果进行权衡, 给出预测结果. 最后将提出的预测模型分别应用于Logistic、Lorenz和太阳黑子混沌时间序列, 仿真实验结果表明本文提出的预测模型可以有效地对混沌时间序列进行预测, 且与其他预测方法相比, Att-CNN-LSTM模型具有更高的预测精度.

    2.   数据预处理
    • 在时间序列的分析中, 影响序列的因素很多, 而且在动力系统中, 这些影响因素的动力学方程往往都是非线性的, 更有可能是混沌的[14]. 对于表现出混沌特性的时间序列, 对序列进行重构相空间是研究序列所在动力系统状态的重要方法. 因此, 在搭建和训练预测模型之前要对混沌时间序列进行相空间重构, 此外, 为消除量纲, 提升模型的收敛速度和预测精度, 再对原序列和重构的相空间数据进行归一化处理.

    • 重构相空间理论的出现为混沌时间序列的预测提供了理论基础, 在重构相空间的基本思想中, 系统中任一变量的变化是由相互作用着的其他变量所决定的, 因此任一变量的发展变化都蕴含着其他变量发展变化的信息[14]. 根据Packard等[15]提出的理论, 使用动力系统中某一变量的延迟坐标即可重构相空间, Takens[16]则证明了在合适的嵌入维下, 即可恢复原动力系统的维数. 为实现相空间的重构, 使用互信息法(mutual information)[17]确定延迟时间$\tau $, Cao法[18]确定嵌入维数m.

      设有时间序列$\{ {x_1}, {x_2}, {x_3}, \cdots, {x_{N - 1}}, {x_N}\} $, 其长度为N, 计算时间延迟$\tau $和嵌入维数m, 则相空间域数据集$\bar D = \{ X(t), Y(t)\}, t = 1, 2, \cdots, M$, 其中$M \!=\! N \!-\! (m \!-\! 1)\tau$, ${{X}}(t) \!=\!\! [{X_t}, {X_{t + \tau }}, \cdots, {X_{t + (m - 1)\tau }}]$, ${{Y}}(t) = [{X_{t + 1}}]$, 矩阵表示如下:

    • 在深度学习中, 对数据集尤其是对非线性的回归数据集进行归一化操作是非常有必要的预处理步骤, 因为归一化操作不仅可以消除量纲, 将数据统一到相同的尺度上, 还可以提升模型的收敛速度和预测精度. 本文利用归一化将相空间域数据集和原始混沌时间序列数据集都统一到(0, 1)范围之间, 归一化函数可表示为

      相空间域数据集$\bar D$和混沌时间序列经过数据预处理后的数据集可表示为重构相空间域D和混沌时间序列T. 数据预处理的过程表示如图1所示.

      Figure 1.  The process of data preprocessing.

    3.   算法模型
    • 在混沌时间序列的预测中, 不同类型的神经网络具有的作用也不同. 序列的重构相空间表示了原动力系统空间特征, 而序列中也蕴含着丰富的时间特征. 因此, 本文提出Att-CNN-LSTM模型, 利用CNN模型获取序列重构相空间的空间特征, 通过LSTM得到空间特征下的时空特征, 并采用注意力机制捕获混合神经网络提取到的关键时空特征.

      本节主要介绍Att-CNN-LSTM模型的框架结构, 如图2所示, 主要包括如下细节:

      Figure 2.  Att-CNN-LSTM model.

      (1)数据预处理: 先对序列进行重构相空间, 然后进行归一化处理;

      (2)卷积神经网络层: 处理网络输入的重构相空间域D, 进行卷积操作, 获取空间特征并输入到Concatenate层;

      (3)长短期记忆网络层: 将Concatenate层融合得到的张量输入到LSTM中, 网络根据CNN提取的空间特征获取时空特征;

      (4)注意力层: 计算CNN和LSTM获取的时空特征的权重, 获得序列的完整特征表示, 根据特征计算预测数值.

    • 卷积网络[19], 又称卷积神经网络, 是一种特殊的深度学习神经网络, 常用于处理具有已知网格状拓扑的数据[20], 在时间序列分析、计算机视觉和自然语言处理等领域有着广泛的运用. 根据处理数据流的不同, CNN可以分为一维卷积、二维卷积和三维卷积, 其中一维卷积在时间序列分析和自然语言处理领域运用较多, 本文采取的CNN结构就属于一维卷积神经网络[21], 如图3所示. 不管是何种CNN, 其组成主要包括基本的输入层和输出层, 核心操作部分为卷积层、池化层(亦称采样层)和全连接层. 在一维卷积中, 卷积的作用可以理解为提取数据在某一方向的平移特征, 在时间序列的分析中则表现为提取序列的特征, 在这里卷积操作的本质是循环乘积与加和, 其数学表达如下:

      Figure 3.  One dimensional convolutional network.

      式中y, h, u均为序列, k表示卷积次数, Nu的长度.

    • 循环神经网络(recurrent neural network, RNN)是常规前馈神经网络的扩展, 能够处理可变长度序列输入. RNN通过循环隐藏状态单元来处理可变长度序列, 但是RNN在训练时会出现梯度消失和梯度爆炸, 因此RNN很难捕获数据的长期依赖[22]. 为解决RNN梯度消失的难题Hochreiter和Schmidhuber [23]提出了长短期记忆网络, LSTM是一种门控循环神经网络, 是RNN的一种特殊表现形式, 能够很好地捕获数据之间的长期依赖[24].

      在LSTM单元结构中共有三个“门”: 遗忘门、输入门和输出门, 其结构如图4所示. 在LSTM中, 通过输入门${\rm{i}}$、遗忘门${\rm{f}}$、输出门${\rm{o}}$以及一个记忆单元${\rm{s}}$来实现长期记忆或遗忘信息, 设当前时刻为t, 则${s^{ \left\langle {t-1} \right\rangle }}$为前一时刻的记忆单元状态, ${\hat s^{ \left\langle {t} \right\rangle }}$为当前输入状态信息, ${h^{ \left\langle {t} \right\rangle }}$${s^{ \left\langle {t} \right\rangle }}$为当前LSTM的输出值. LSTM单元的计算公式如(3)式—(8)式所示.

      Figure 4.  The structure of LSTM.

      式中W为各个门的权重向量, b为偏置向量, $\sigma $${\rm{sigmoid}}$函数, $\tanh $为非线性激活函数.

    • 人类大脑在观察某一事物时, 往往会将注意力集中到事物的某些部分, 这些注意力集中的部分往往也是从事物上获取信息的关键, 这些信息对于认知同类事物有着很强的指引作用, 而注意力机制(attention mechanism)[25]就是一种模仿这一认知过程的特殊机制. 注意力机制在计算机视觉和自然语言处理领域的运用已经取得了较好的结果[26,27], 本文将注意力机制运用到时间序列的分析中.

      在混沌时间序列的分析中, 先用CNN提取序列的空间特征, 在用LSTM根据空间特征提取时空特征后, 过多或非关键的特征会影响最后的预测结果. 因此, 利用注意机制来提取序列的关键特征. 注意力机制可以简单地理解为一个加权求和器, 也可以理解为一个关键特征提取器, 它主要进行的是加权求和操作. 本文提出的注意力模型如图5所示, 向量c即为提取的关键特征, 其计算公式如下:

      Figure 5.  Attention model.

      式中m为输入LSTM网络的时间步总和; v为LSTM网络输出的特征向量, $\beta $为向量v的权值.

      为了获得权值$\beta $, 在注意力模型中加入了一个小型的神经网络a, 其输出层激活函数为softmax, 计算公式表示如下:

      其中, ${e_i}$可由${e_i} = a({v_i}) = \sigma (W{v_i} + {{b}})$算得, 且$\sigma $为sigmoid函数, W图5中输入层至隐藏层的权重矩阵, b为偏置值矩阵.

    • 图2所示, Att-CNN-LSTM模型中添加了Concatenate层和Dropout层, 其中Concatenate层是为了将卷积神经网络的输出, 即序列的空间特征与原序列T进行特征融合. 在深度学习模型中加入Dropout层很常见, 其作用主要是为了防止模型训练时出现过拟合, 进而提升模型的鲁棒性和泛化能力.

    4.   实验分析与讨论
    • 本文所有实验均在阿里云服务器ECS上进行, CPU类型为Intel Skylake Xeon Platinum 8163 2.5 GHz, 内存8 GB, 所有程序代码均用Python(3.7.7版本)语言编写, 使用的编辑器为Jupyter notebook.

      为验证Att-CNN-LSTM模型的预测能力, 利用Logistic、Lorenz和太阳黑子混沌时间序列进行实验, 并与未加入注意力机制的CNN-LSTM模型、单一的LSTM和CNN模型, 以及LSSVM模型进行误差对比. 为了评价预测误差, 除了采用常用的均方根误差(RMSE)、平均绝对误差(MAE)和平均绝对百分比误差(MAPE)外, 再引入一个在评价时间序列预测性能中常用的均方根百分比误差(RMSPE), 即:

      式中I为预测样本数; ${y_i}$${\hat y_i}$分别为预测值和真实值.

    • Logistic混沌映射方程为

      $3 \leqslant \mu \leqslant 4$时Logistic映射的动力系统由周期转向混沌, 本文选取方程的初始值为${x_0} = 0.32$, 参数$\mu = 3.8$. 为保证混沌性, 舍弃前10000个数据, 选取后3000个数据作为模型数据样本. 利用互信息法和Cao法分别求得样本的延迟时间为9, 嵌入维度为15, 而后对样本进行相空间重构, 共得到2873个有效相点, 按照8∶2划分训练集和测试集, 即前80%作为训练集后20%作为测试集. 数据预处理后, 用Att-CNN-LSTM模型进行训练预测, 预测结果和预测相对误差如图6图7所示, 表1列出了Att-CNN-LSTM模型和其他模型的预测结果对比.

      Figure 6.  Logistic series prediction.

      Figure 7.  Logistic series prediction relative error.

      RMSEMAEMAPERMSPE
      Att-CNN-LSTM0.0035030.0029350.53050.6767
      CNN-LSTM0.0068560.0054441.10641.7795
      LSTM0.0061690.0053161.15951.6887
      CNN0.0046700.0038490.88021.4019
      LSSVM0.0091580.0043071.36233.8604

      Table 1.  Model error comparison.

      图6图7中可以看出, Att-CNN-LSTM对Logistic时间序列的预测取得了较好的结果, 不仅能够预测序列变化的趋势, 且真实值和预测值之间的误差较小, 说明本文提出的模型取得了较高的预测精度. 如表1所列, 与CNN-LSTM, LSTM, CNN和LSSVM等模型的预测误差对比, Att-CNN-LSTM的各项预测误差均为最小, 说明本文提出的模型预测精度高, 预测性能较好. 与未引入注意力机制的CNN-LSTM预测模型相比, Att-CNN-LSTM对预测精度的提升较为明显, 说明注意力机制在模型中提取到了序列的关键时空特征, 使得预测结果更加准确. 值得注意的是, 单一的CNN和LSTM模型的预测结果优于CNN-LSTM混合模型, 说明混合模型下的非关键特征在一定程度上降低了预测精度, 这也说明了注意力模型在CNN-LSTM混合模型中具有重要的作用. 此外单一的CNN预测模型在Logistic数据集上的预测表现优于单一的LSTM模型, 说明CNN在Logistic序列高纬度相空间下提取的空间特征好于LSTM提取的时间特征, 从Att-CNN-LSTM模型与这两个单一模型的对比中, 可以发现仅依赖单一的时间或空间特征, 难以获得精度较高的预测结果, 而注意力模型提取关键时空特征能够提升预测精度, 是一个较为理想的预测方法.

      为了更全面地对比本文提出的Att-CNN-LSTM模型的预测性能, 表2中列出了各个模型的训练和预测时间. 不难看出, 在模型的训练阶段, 单一的CNN, LSTM和LSSVM预测模型所用的时间较小, 分别为59.5, 48.8和215.4 s. 相比之下, 混合模型因为模型较为复杂, 所需进行的运算更多, 所以训练时间用时较多, 其中Att-CNN-LSTM用时312.7 s, CNN-LSTM用时302 s. 但是在测试阶段, 各个模型所用时间相差不大, 虽然单一模型的预测用时仍比混合模型短, 但是都控制在0.6 s以内. 综合各个模型的预测误差表现, 本文提出的预测模型具有较高的性价比, 且预测优势明显.

      模型Att-CNN-LSTMCNN-LSTMCNNLSTMLSSVM
      训练时间 /s312.730259.548.8215.4
      预测时间 /s0.530.490.250.210.47

      Table 2.  Model running time comparison.

    • Lorenz混沌映射方程为

      选取方程的初始值为$x = y = z = 1$, 参数$a = 10$, $c = 28$, $b = 8/3$. 为保证混沌性, 舍弃前10000个数据, 选取后3000个数据作为模型数据样本. 本文选取Lorenz系统的x分量进行预测分析, 先利用互信息法和Cao法分别求得样本的延迟时间为17, 嵌入维度为7, 而后对样本进行相空间重构, 共得2898个样本, 取前80%作为训练集, 后20%作为测试集. 同样在经过数据预处理后, 用Att-CNN-LSTM模型进行训练预测, 预测结果和预测相对误差如图8图9所示, 表3列出了Att-CNN-LSTM模型和其他模型的预测误差对比, 表4则列出了各个模型的运行时间.

      RMSEMAEMAPERMSPE
      Att-CNN-LSTM0.06790.05211.21822.1102
      CNN-LSTM0.24450.12293.884914.7893
      LSTM0.51520.390113.676743.7676
      CNN0.53560.381111.003233.5251
      LSSVM0.51010.36529.354335.5644

      Table 3.  Model error comparison.

      模型Att-CNN-LSTMCNN-LSTMCNNLSTMLSSVM
      训练时间 /s184.6193.984.2851.21202.4
      预测时间 /s0.470.550.200.230.45

      Table 4.  Model running time comparison.

      Figure 8.  Lorenz(x) series prediction.

      Figure 9.  Lorenz(x) series prediction relative error.

      图8图9所展示的Lorenz(x)序列预测结果很好地表现了Att-CNN-LSTM的预测性能, 在预测集上, 模型的预测结果误差较小, 精度较高, 非常接近真实值. 从表2中也能看出, 在Lorenz样本集上本文提出的Att-CNN-LSTM模型表现依然出色, 且Att-CNN-LSTM的预测性能明显优于CNN-LSTM, LSTM, CNN和LSSVM等模型, RMSE, MAE, MAPE和RMSPE四项预测指标分别降低至0.00679, 0.0521, 1.2182和2.1102, 相比其他模型精度提升较为明显. 不同于在Logistic样本集上的表现, CNN-LSTM在Lorenz样本集上的表现虽然不如Att-CNN-LSTM模型, 但是却优于单一的CNN和LSTM模型, 各项预测指标也下降较多. 在单一模型中, 在RMSE指标下LSTM的预测性能略好于CNN, 但在其他指标下其预测性能略低于CNN, 此外, LSSVM的综合表现优于CNN和LSTM. 在运行时间方面, 单一的预测模型在训练和测试阶段所用时间依然低于混合模型, 但时间差距有所缩小. 此外, 在Lorenz样本集上, Att-CNN-LSTM模型的运行时间低于CNN-LSTM模型, 综合考虑下, 本文提出的模型依然具有较高的预测性能.

    • 在Logistic和Lorenz这两个理论混沌系统中, Att-CNN-LSTM表现出了较好的预测性能, 为验证其在真实动力系统的表现, 采用太阳黑子时间序列检验其预测性能. 本文采集了1749-2019年的太阳黑子数据, 共有3252条数据, 经过相空间重构后, 产生3094组样本数据, 训练集和测试集仍以8:2比例划分, 即前80%作为训练集后20%作为测试集. 预测结果和误差如图10图11所示, 表5表6则列出了Att-CNN-LSTM模型和其他模型的预测结果对比.

      RMSEMAEMAPERMSPE
      Att-CNN-LSTM20.182917.182732.816742.3529
      CNN-LSTM30.565221.409367.434356.7217
      LSTM24.913718.281549.586262.6939
      CNN24.853418.467765.348044.1892
      LSSVM27.327119.437343.098756.6781

      Table 5.  Model error comparison.

      模型Att-CNN-LSTMCNN-LSTMCNNLSTMLSSVM
      训练时间 /s309.2291.376.553.3237.9
      预测时间 /s0.390.430.150.250.59

      Table 6.  Model running time comparison.

      Figure 10.  Sunspot series prediction.

      Figure 11.  Sunspot series prediction relative error.

      图10图11中可以看出, Att-CNN-LSTM模型在太阳黑子时间序列的预测上仍然具有较好的表现, 能够很好地预测序列的变化趋势, 尽管有部分时间点的预测误差达到了4.7%, 但是总体误差依然保持在较低的水平. 如表3所列, 虽然Att-CNN-LSTM模型在真实数据集上的预测提升不如对Logistic和Lorenz等理论数据集, 但是其预测误差仍低于其他模型. 相比其他预测模型, Att-CNN-LSTM至少降低了19%的RMSE值, 6%的MAE值, 23%的MAPE值和4%的RMSPE值, 预测精度提升依然较为明显. 此外, CNN, LSTM和LSSVM的综合预测性能相差不多, 但是都优于CNN-LSTM模型. 在运行时间方面, 虽然Att-CNN-LSTM模型的训练时间多于其他模型, 但是其预测时间为已低至0.39 s. 综合各模型的预测误差和运行时间分析, 本文提出的模型依然具有较好的预测性能.

    • 4.14.3节的实验和分析可知, 本文提出的Att-CNN-LSTM模型在Logistic, Lorenz和太阳黑子三个混沌时间序列上取得了优于其他模型的预测性能. 在Att-CNN-LSTM模型中, CNN模型可以提取混沌时间序列重构相空间下的空间特征, LSTM则根据CNN提取的空间特征提取原时间序列的时空特征, 而注意力模型对CNN-LSTM提取的时空特征进行筛选, 对重要的特征赋予高权重, 并弱化非关键特征, 这对预测精度的提升起到了重要作用. 在混沌时间序列的高维重构相空间内, 混沌系统的内在信息被挖掘出来, 但是并非所有信息都有利于预测, 过多的非关键的信息会影响到预测精度. 原始的混沌时间序列虽然蕴含着混沌系统的时序特征, 但在复杂的混沌系统中, 仅仅依靠时序特征很难获取精度较高的预测结果. 此外, 若同时考虑混沌系统的空间和时间特征, 所涉及的信息和特征会很多, 那些不重要的信息和特征会对预测造成负面影响, 不利于预测精度的提升.

      实验中发现, Logistic和太阳黑子混沌时间序列拥有较高的相空间展开维度, 其所在的混沌系统较为复杂, 而Lorenz的展开维度相对较低, 其动力系统相对简单. 混合模型CNN-LSTM在高维相空间下的预测精度明显不如单一的CNN和LSTM模型, 但是在低维情况下, CNN-LSTM的预测精度又明显优于单一预测模型, 这说明在复杂的混沌系统下, 过多的信息和非关键特征影响了预测精度, 而注意力模型能够通过提取关键特征解决这些问题, 使得预测精度有所提升, 三个预测实例也很好地证明了本文提出的注意力模型能够提升混合模型CNN-LSTM预测性能.

    5.   结 论
    • 本文利用注意力机制捕获混合神经网络CNN-LSTM的时空特征, 提出了一种用于混沌时间序列预测的Att-CNN-LSTM模型. 结合相空间重构理论, 用CNN提取动力系统重构相空间下的空间特征, 让LSTM根据空间特征提取序列的时间特征. 作为模型的关键部分, 注意力模型的设计关系到序列的特征获取, 进而影响到预测精度. 因此, 为更好地获取时间序列的特征, 可以通过添加非线性激活函数来获取加权参数. 仿真实验结果表明, 本文提出的模型在几个混沌时间序列的预测上都取得了较好的结果, 且预测精度高, 预测性能较好.

Reference (27)

Catalog

    /

    返回文章
    返回