本发明属于信号数据处理,具体涉及一种复杂高噪声信号的混合深度学习模型时序预测方法。
背景技术:
1、随着大数据和人工智能的发展,时间序列数据在各个领域(如海洋、气象、金融、医学等)中广泛应用,成为诸多行业的核心任务,包括气象预报、金融市场分析和交通流量预测。然而,实际应用中,许多信号数据通常受到噪声、周期性波动等因素影响,导致预测难度增大,高噪声信号及其复杂特征给传统的预测模型带来了巨大挑战。传统的预测模型在处理复杂、高噪声信号时存在如下诸多局限性:
2、1.趋势与周期混杂:复杂信号中往往包含多重趋势、季节性和周期性成分,且这些成分相互交织,有效分解这些成分并准确预测未来值是一个挑战;
3、2.单一模型无法捕捉复杂信号的多层次特征:传统的时间序列模型通常只能捕捉数据的某一类特征,难以同时处理信号中的趋势、季节性、噪声和非线性关系;
4、3.残差建模能力不足:基于线性模型的sarima虽然可以对残差进行分析,但在处理非线性强、波动大的残差时效果不佳;
5、4.过拟合与预测稳定性问题:单一深度学习模型(如lstm)在长时间预测中易出现过拟合现象,导致模型泛化能力不足,难以稳定应对复杂的时序数据。
6、因此,现有技术在处理复杂且高噪声信号时,常用的时间序列模型,如prophet、sarima和lstm,虽然能够在一定程度上解决信号的趋势和季节性问题,但面对上述高噪声、非线性和复杂周期混杂的情况,其准确性和鲁棒性不足,预测效果也不够理想。因此需要一种多模型融合的方法,来提高对复杂高噪声信号的预测精度和预测效果。
技术实现思路
1、针对上述背景技术中存在的问题,本发明的目的是提供一种复杂高噪声信号的混合深度学习模型时序预测方法,该方法结合了prophet、sarima与lstm三种神经网络模型的优势,采用多阶段递进式建模方法,以应对复杂信号中的趋势、季节性、噪声和非线性特征,能有效处理复杂且高噪声的时间序列信号。
2、为了实现上述目的,本发明采用如下技术方案:
3、一种复杂高噪声信号的混合深度学习模型时序预测方法,包括如下步骤:
4、s1、数据预处理
5、对原始时间序列数据进行划分,将其划分为训练集和测试集,生成训练集和测试集的时间序列;将训练集和测试集的时间序列数据进行归一化的预处理,之后分别对训练集和测试集进行变分模态分解(vmd)处理;
6、s2、利用 prophet模型建模
7、将vmd处理后的训练和测试集的数据输入prophet模型,使用prophet模型对数据中的趋势和季节性特征进行建模,捕捉数据中的长期趋势和季节性变化,输出初步预测结果,并提取残差部分;
8、s3、利用sarima模型对残差进行建模
9、使用sarima模型对prophet模型产生的残差部分进行建模,捕捉残差中的线性特征和周期性噪声,生成优化的预测结果;
10、s4、利用lstm模型对残差进行建模
11、使用lstm模型对sarima模型产生的残差部分进行建模,捕捉数据中的非线性特征,使用差分进化算法优化lstm模型的超参数,生成优化的预测结果;
12、s5、多模型融合
13、将prophet、sarima和lstm三种模型的预测结果进行相加,之后再进行反归一化处理后输出最终预测值。
14、进一步的,步骤s1中,所述训练集和测试集按照日期时间的划分比例为70/30。
15、进一步的,所述sarima模型的参数通过网格搜索方法选择最优组合。
16、相比于现有技术的缺点和不足,本发明具有以下有益效果:
17、(1)本发明结合了prophet、sarima与lstm三种神经网络模型的优势,通过递进式处理残差,层层递进优化,充分利用每种模型的优势,能够降低噪声对预测的影响,有效捕捉信号中的不同特征,实现更高效的预测,显著提高了预测的准确性与稳定性;
18、(2)通过将传统时间序列模型与深度学习模型相结合,提升了对复杂非线性信号的预测能力,减少了过拟合风险;
19、(3)参数优化:使用差分进化算法对 lstm 模型的超参数进行优化,确定最优的隐藏层大小、学习率和 dropout 概率,从而保证模型的最佳性能;
20、(4)本发明相比传统单一模型,在复杂高噪声信号的预测中能够显著提高预测精度,尤其在长期预测中表现出良好的稳定性,服了单一模型在复杂时间序列预测中的局限性。
1.一种复杂高噪声信号的混合深度学习模型时序预测方法,其特征在于,包括如下步骤:
2.如权利要求1所述的复杂高噪声信号的混合深度学习模型时序预测方法,其特征在于,步骤s1中,所述训练集和测试集按照时间划分的比例为70/30。
3.如权利要求1所述的复杂高噪声信号的混合深度学习模型时序预测方法,其特征在于,所述sarima模型的参数通过网格搜索方法选择最优组合。