2022年3月刊
您的位置:首页 > 2022年3月刊
基于灰狼算法-LSSVM 的惯组建模预测
最小二乘支持向量机及优化
最小二乘支持向量机
LSSVM 是一种基于结构风险最小化原理的机器学习算法,它用不等式约束替代了 SVM 的等式约束,以误差平方和损失函数作为训练集的经验损失,(b)分析hk -1值点;
(t) 所有的局部极大值点和局部极小
从而把问题转化成一个线性矩阵求解问题[13]。相对于传统的 SVM,LSSVM 具有计算复杂度更低,求
(c)通过三次样条插值分别对极大值点和极小值
点进行拟合,求上下包络线e+ (t) 和e- (t) ;计算上下包络线的均值mk (t) 和hk (t) = hk -1(t) - mj (t) ;解速度更快的优点。
(1)通过拉格朗日乘子法求解最小值,构造函数N上式说明 EMD 方法具有完备性,信号经分解后还能通过所有 IMF 和剩余分量被精确重构出来。
相空间重构
相空间重构是用一维时间序列逆推出原相空间结构,根据 Takes 的嵌入定理[11],虽然相空间重构
是用一个变量在不同时刻的取值构成相空间,但动力系统的一个变量的变化自然跟此变量与系统的其它变量的相互作用相关,即重构后的 m 维相空间与原系统的动力学具有同样的动力学特征。
针对捷联惯组误差系数时间序列复杂度高、样本容量小的特点,本模型采用 EMD 来降低时间序列复杂度、通过 LSSVM 作为预测模型来解决这一因此,通过调整参数g 和s 即可影响 LSSVM 的学习能力。
灰狼优化算法
Mirjalili 等于 2014 年提出了一种新型群体智能优化算法—灰狼优化算法(Grey Wolf Optimizer,
GWO)。GWO 算法源于对自然界中灰狼种群的等级层次机制和捕食行为的模拟,通过狼群跟踪、包围、追捕、攻击猎物等过程实现优化的目的[14]。相对于其它群体智能优化算法,GWO 在具有较强的全局搜索能力的同时还具有原理简单、参数设置少的优点,
小样本问题,并使用了 GWO 算法提高对关键参数的寻优能力,详细流程见图 1。并且已被证明在求解精度和收敛速度均优于粒子群算法。
在 GWO 算法中,按照自然界中灰狼种群的等级管理制度共有 4 种狼,其中级别最高的头狼称为,代表种群中的最优解;级别第二的狼称为,代表种群中的次最优解;级别第三的狼称为,代表种群中的第三最优解;其余均为普通灰狼,每一只灰狼都代表一个候选解。假设灰狼种群的普通灰狼数目为 N,搜索空间为 d 维,那么第 i 只灰狼在 d 维空间中的位置可以表示为 Xi = (xi1, xi 2 , , xid ) ,在捕食过程中,灰狼群体根据下式对猎物进行包围:
数据预处理
捷联惯组通常以稳定期为间隔定期循环测试, 但实际上测试数据的间隔通常不均等且测试次数少。因此,需要对捷联惯组的历次测试数据进行等Xi (t +1) = X p (t) - A× C × X p (t) - Xi (t)(10)
间隔化处理和样本扩充。目前常用的方法是文献[5,6]式中,t 为当前迭代次数, X p (t) 为猎物位置,A× C × X p (t) - Xi (t) 为包围步长, A 和C 是系数,可定义为:
提出一种二次修正插值法,其原理如下:
1)等间隔化处理。测试间隔期较长时捷联惯组的各项误差系数的变化常常是非线性的,而样条函A = 2a × r1 - a C = 2 × r2
数插值是一种很适合用来拟合光滑曲线的方法,因此先对原始的历次测试数据以稳定期为间隔进行一其中,r1 和 r2 为[0,1]之间的随机数,a 为随迭代次数增加从 2 线性减小到 0 的距离控制参数,即次样条函数插值,得到等间隔的基本时间序列。然后对各插值结果进行检验,对于明显超出捷联惯组稳定性要求的插值点,需要对其进行修正。
2)样本扩充。对于第一次插值后得到的基本时间序列,其样本总数仍太少,因此需要在基本时间
对误差 MAE 和平均绝对百分比误差 MAPE,其定义分别为:
序列的基础上再进行一次样条函数插值,以达到扩充样本总量的目的。第二次插值的时间间隔通常为月的整数倍,具体可根据建模所需要的样本总量来选取。
基于 EMD-GWO-LSSVM 的惯组误差系数预测模型对预处理后的测试数据进行 EMD 分解,假设EMD 分解得到 K 个 IMF 和 1 个余量 r,其中某时间序列的表达式为{x1, , xN }。对该时间序列进行相空间重构,取其中前 Ntr 个数据作为LSSVM 的训练集, 假设嵌入维数为 m,时间延迟 1,那么输入 X 与输出Y 的关系可以表示为:式中, xt 为 t 时刻的实际值, xt 为 t 时刻的预测值。