zoukankan      html  css  js  c++  java
  • Matlab实现BP神经网络预测(附实例数据及代码)

    1. BP神经网络介绍

    神经网络是机器学习中一种常见的数学模型,通过构建类似于大脑神经突触联接的结构,来进行信息处理。在应用神经网络的过程中,处理信息的单元一般分为三类:输入单元、输出单元和隐含单元。 顾名思义:输入单元接受外部给的信号与数据;输出单元实现系统处理结果的输出;隐含单元处在输入和输出单元之间,从网络系统外部是无法观测到隐含单元的结构的。除了上述三个处理信息的单元之外,神经元间的连接强度大小由权值等参数来决定。

    • 图为BP神经网络结构:(图片均为截图来的笔记,蒟蒻手动狗头)

    • 单个神经元的工作原理:

    需要特别注意的是,f(.)是一个关于net的函数,即f(net),而net是一个由各个输入变量线性加权求和之后的变量。

    • 另外是几个需要补充的疑问:

    • 还有Matlab中各个参数对应的含义补充:

    模型评价:R^2越接近1,预测模型越准确(决定了预测和结果的贴合程度)
    BP神经网络是前向神经网络,但是改变权值系数是个反向调整
    常用的激活函数:线性函数,斜坡函数,阈值函数,S型函数(0-1),双极性S型函数(-1,1)(输入输出范围)
    因为BP神经网络输出结果参与建模,所以属于有导师学习神经网络。

    输入、输出归一化:

    1. S:y=(x-min)/(max-min)
    2. 双s y=2*(x-min)/(max-min)-1
      数据结果反归一化

    连接权值:4019+91+9+1

    2. Matlab实现

    %% 初始化
    clear
    close all
    clc
    format short
    %% 读取读取
    data=xlsread('数据.xlsx','Sheet1','A1:N252'); %%使用xlsread函数读取EXCEL中对应范围的数据即可  
    
    %输入输出数据
    input=data(:,1:end-1);    %data的第一列-倒数第二列为特征指标
    output=data(:,end);  %data的最后面一列为输出的指标值
    
    N=length(output);   %全部样本数目
    testNum=50;   %设定测试样本数目
    trainNum=N-testNum;    %计算训练样本数目
    
    %% 划分训练集、测试集
    input_train = input(1:trainNum,:)';
    output_train =output(1:trainNum)';
    input_test =input(trainNum+1:trainNum+testNum,:)';
    output_test =output(trainNum+1:trainNum+testNum)';
    
    %% 数据归一化(输入、输出)
    [inputn,inputps]=mapminmax(input_train,0,1);
    [outputn,outputps]=mapminmax(output_train);
    inputn_test=mapminmax('apply',input_test,inputps);%%50个测试集
    
    %% 获取输入层节点、输出层节点个数
    inputnum=size(input,2);
    outputnum=size(output,2);
    disp('/////////////////////////////////')
    disp('神经网络结构...')
    disp(['输入层的节点数为:',num2str(inputnum)])
    disp(['输出层的节点数为:',num2str(outputnum)])
    disp(' ')
    disp('隐含层节点的确定过程...')
    
    %确定隐含层节点个数
    %采用经验公式hiddennum=sqrt(m+n)+a,m为输入层节点个数,n为输出层节点个数,a一般取为1-10之间的整数
    MSE=1e+5; %初始化最小误差
    transform_func={'tansig','purelin'}; %激活函数
    train_func='trainlm';   %训练算法
    for hiddennum=fix(sqrt(inputnum+outputnum))+1:fix(sqrt(inputnum+outputnum))+10
        
        %构建网络
        net=newff(inputn,outputn,hiddennum,transform_func,train_func);
        % 网络参数
        net.trainParam.epochs=1000;         % 训练次数
        net.trainParam.lr=0.01;                   % 学习速率
        net.trainParam.goal=0.000001;        % 训练目标最小误差
        % 网络训练
        net=train(net,inputn,outputn);
        an0=sim(net,inputn);  %仿真结果
        mse0=mse(outputn,an0);  %仿真的均方误差
        disp(['隐含层节点数为',num2str(hiddennum),'时,训练集的均方误差为:',num2str(mse0)])
        
        %更新最佳的隐含层节点
        if mse0<MSE  %%保证了不会“过拟合”
            MSE=mse0;
            hiddennum_best=hiddennum;
        end
    end
    disp(['最佳的隐含层节点数为:',num2str(hiddennum_best),',相应的均方误差为:',num2str(MSE)])
    
    %% 构建最佳隐含层节点的BP神经网络
    net=newff(inputn,outputn,hiddennum_best,transform_func,train_func);
    
    % 网络参数
    net.trainParam.epochs=1000;         % 训练次数
    net.trainParam.lr=0.01;                   % 学习速率
    net.trainParam.goal=0.000001;        % 训练目标最小误差
    
    %% 网络训练
    net=train(net,inputn,outputn);
    
    %% 网络测试
    an=sim(net,inputn_test); %用训练好的模型进行仿真
    test_simu=mapminmax('reverse',an,outputps); % 预测结果反归一化
    
    error=test_simu-output_test;      %预测值和真实值的误差
    
    **%%以上用于仿真,实际用于预测的时候只需将 *测试集* 对应的输入参数正常替换成待预测的输入参数,即可得出预测结果**
    
    
    %%真实值与预测值误差比较
    figure
    plot(output_test,'bo-','linewidth',1.2)
    hold on
    plot(test_simu,'r*-','linewidth',1.2)
    legend('期望值','预测值')
    xlabel('测试样本编号'),ylabel('指标值')
    title('BP测试集预测值和期望值的对比')
    set(gca,'fontsize',12)
    
    figure
    plot(error,'ro-','linewidth',1.2)
    xlabel('测试样本编号'),ylabel('预测偏差')
    title('BP神经网络测试集的预测误差')
    set(gca,'fontsize',12)
    
    %计算误差
    [~,len]=size(output_test);
    SSE1=sum(error.^2);
    MAE1=sum(abs(error))/len;
    MSE1=error*error'/len;
    RMSE1=MSE1^(1/2);
    MAPE1=mean(abs(error./output_test));
    r=corrcoef(output_test,test_simu);    %corrcoef计算相关系数矩阵,包括自相关和互相关系数
    R1=r(1,2);    
    
    disp(' ')
    disp('/////////////////////////////////')
    disp('预测误差分析...')
    disp(['误差平方和SSE为:            ',num2str(SSE1)])
    disp(['平均绝对误差MAE为:      ',num2str(MAE1)])
    disp(['均方误差MSE为:              ',num2str(MSE1)])
    disp(['均方根误差RMSE为:        ',num2str(RMSE1)])
    disp(['平均百分比误差MAPE为: ',num2str(MAPE1*100),'%'])
    disp(['相关系数R为:                     ',num2str(R1)])
    
    %打印结果
    disp(' ')
    disp('/////////////////////////////////')
    disp('打印测试集预测结果...')
    disp(['    编号         实际值        预测值        误差'])
    for i=1:len
        disp([i,output_test(i),test_simu(i),error(i)])
    end
    

    最后给出Matlab以上代码中对应处理的数据表
    见附件
    链接:https://pan.baidu.com/s/1zYIYEQh1JIPePqvNVi9uiA
    提取码:beid

    参考来源:https://mianbaoduo.com/o/bread/YZmTmptv?after_pay=1

    这篇文章,是又一个故事的结束...
    lazy's story is continuing.
  • 相关阅读:
    解决winXP无法远程桌面连到win8
    Exception处理
    Java父类与子类的内存引用讲解
    JAVA子类继承父类
    JAVA子类调用父类构造方法
    JS 矩阵转置
    JS 二分查找
    JS冒泡排序
    JS 求平均值
    关于STM32 NVIC配置的解释
  • 原文地址:https://www.cnblogs.com/Hello-world-hello-lazy/p/15212838.html
Copyright © 2011-2022 走看看