基于麻雀算法优化卷积神经网络-长短期记忆网络结合自注意力机制SSA-CNN-LSTM-selfAttention回归预测,多变量输入模型。matlab代码。优化参数,学习率,正则化,神经元个数。

2023-12-19

%%  清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行

%%  导入数据
result1 = xlsread('数据集.xlsx');
result=result1(1:1000,:);
%%  数据分析
num_samples = length(result);  % 样本个数
kim = 0;                      % 延时步长(前面多行历史数据作为自变量)
zim =  1;                      % 跨zim个时间点进行预测
nim = size(result, 2) - 1;     % 原始数据的特征是数目

%%  划分数据集
for i = 1: num_samples - kim - zim + 1
res(i, :) = [reshape(result(i: i + kim - 1 + zim, 1: end - 1)', 1, ...
(kim + zim) * nim), result(i + kim + zim - 1, end)];
end

%%  数据集分析
outdim = 1;                                  % 最后一列为输出
num_size = 0.85;                              % 训练集占数据集比例
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征长度

%%  划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);

P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);

智能算法及其模型预测

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

基于麻雀算法优化卷积神经网络-长短期记忆网络结合自注意力机制SSA-CNN-LSTM-selfAttention回归预测,多变量输入模型。matlab代码。优化参数,学习率,正则化,神经元个数。 的相关文章

随机推荐