<>
这几天没有写博客,主要是在看matlab的神经网络,通过对机器学习的学习,学习了感知器,径向基,bp等神经网络。接下来就学习一个运用最广泛的bp神经网络案例!

<>例: bp神经网络预测汽油浓度案例。

*
首先数据集spectra_data.mat中有两组数据,即数据集P和T,在这一组数据中,有60条数据,每条数据有401个特征值,我们要做的就是取其中一部分作为训练,一部分作为测试。
* 我们先来看看数据集NIR(p)

* 数据集octane(t)

* 数据集的数值范围比较混乱我们应当对他们进行调整(在这里我将数据都处理在[0,1]范围内后期比较好处理,当然数据集p,t都需要进行这样的操作。 %%
这里函数的作用就是对p_train数据进行归一化处理 [p_train, ps_input] = mapminmax(P_train,0,1);
* 我们这那50个数据作为训练,10个数据作为测试,为保证模型的广泛性,我们将随机抽取50个作为训练集 % 2. 随机产生训练集和测试集 temp =
randperm(size(NIR,1)); %打乱60个样本排序 disp(temp(1:50)) % 训练集——50个样本 P_train =
NIR(temp(1:50),:)'; T_train = octane(temp(1:50),:)'; % 测试集——10个样本 P_test =
NIR(temp(51:end),:)'; T_test = octane(temp(51:end),:)'; N = size(P_test,2);
* 当数据集处理完成之后就要进行神经网络的训练 %% IV. BP神经网络创建、训练及仿真测试 % 1. 创建网络 net =
newff(p_train,t_train,9); %9是隐含层神经元的个数(大家改改测试下结果影响),连接权值是3628,讲一下怎么计算得到的 %% %
2. 设置训练参数 net.trainParam.epochs = 1000; %迭代次数 net.trainParam.goal = 1e-3;
%mse均方根误差小于这个值训练结束 net.trainParam.lr = 0.01; %学习率 %% % 3. 训练网络 net =
train(net,p_train,t_train); %% % 4. 仿真测试 t_sim = sim(net,p_test); %返回10个样本的预测值
* 处理完成之后呢,我们需要将处理后的数值在[0,1]之间,我们需要将其复原 T_sim =
mapminmax('reverse',t_sim,ps_output); %reverse反数据归一化的结果
* 最后就是评测这个模型的性能,图的方式展示出来 %% V. 性能评价 %% % 1. 相对误差error error = abs(T_sim -
T_test)./T_test; %% % 2. 决定系数R^2 R2 = (N * sum(T_sim .* T_test) - sum(T_sim) *
sum(T_test))^2 / ((N * sum((T_sim).^2) - (sum(T_sim))^2) * (N *
sum((T_test).^2) - (sum(T_test))^2)); %% % 3. 结果对比 result = [T_test' T_sim'
error'] %输出真实值,预测值,误差 %% VI. 绘图 figure plot(1:N,T_test,'b:*',1:N,T_sim,'r-o')
legend('真实值','预测值') xlabel('预测样本') ylabel('辛烷值') string =
{'测试集辛烷值含量预测结果对比';['R^2=' num2str(R2)]}; title(string)
* 看看效果

<>决定系数为R2为0.961比较成功。

<>
总结:明白了神经网络干了什么事,对于特征值较少的数据,我们可以用线性回归和逻辑回归对数据进行分类,但是对于特征值较多(比如这里的401个特征值)的机器学习问题,线性回归和逻辑回归会存在过拟合或者欠拟合的问题,这时需要利用神经网络,让他自己不断进行训练,已达到最好的分类效果。这就是神经网络的优势!

<>最后附上全部代码
%% I. 清空环境变量 clear clc %% II. 训练集/测试集产生 %% % 1. 导入数据 load spectra_data.mat %%
% 2. 随机产生训练集和测试集 temp = randperm(size(NIR,1)); %打乱60个样本排序 disp(temp(1:50)) %
训练集——50个样本 P_train = NIR(temp(1:50),:)'; T_train = octane(temp(1:50),:)'; %
测试集——10个样本 P_test = NIR(temp(51:end),:)'; T_test = octane(temp(51:end),:)'; N =
size(P_test,2); %% III. 数据归一化 [p_train, ps_input] = mapminmax(P_train,0,1);
p_test = mapminmax('apply',P_test,ps_input); [t_train, ps_output] =
mapminmax(T_train,0,1); %% IV. BP神经网络创建、训练及仿真测试 % 1. 创建网络 net =
newff(p_train,t_train,9); %9是隐含层神经元的个数(大家改改测试下结果影响),连接权值是3628,讲一下怎么计算得到的 %% %
2. 设置训练参数 net.trainParam.epochs = 1000; %迭代次数 net.trainParam.goal = 1e-3;
%mse均方根误差小于这个值训练结束 net.trainParam.lr = 0.01; %学习率 %% % 3. 训练网络 net =
train(net,p_train,t_train); %% % 4. 仿真测试 t_sim = sim(net,p_test); %返回10个样本的预测值
%% % 5. 数据反归一化 T_sim = mapminmax('reverse',t_sim,ps_output); %反归一化结果 %% V. 性能评价
%% % 1. 相对误差error error = abs(T_sim - T_test)./T_test; %% % 2. 决定系数R^2 R2 = (N
* sum(T_sim .* T_test) - sum(T_sim) * sum(T_test))^2 / ((N * sum((T_sim).^2) -
(sum(T_sim))^2) * (N * sum((T_test).^2) - (sum(T_test))^2)); %% % 3. 结果对比
result = [T_test' T_sim' error'] %输出真实值,预测值,误差 %% VI. 绘图 figure
plot(1:N,T_test,'b:*',1:N,T_sim,'r-o') legend('真实值','预测值') xlabel('预测样本')
ylabel('辛烷值') string = {'测试集辛烷值含量预测结果对比';['R^2=' num2str(R2)]}; title(string)

技术
下载桌面版
GitHub
百度网盘(提取码:draw)
Gitee
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:[email protected]
QQ群:766591547
关注微信