xuebaolin 发表于 2007-7-20 11:41

BP高手请您看过来,看下我写的Matlab源代码存在的问题

以下是部分代码:
HiddenUnitNum=10;%隐节点数
    MaxEpochs=100;%最大训练次数
    lr=0.1;%学习率
    E0=0.01;%目标误差
    W1=0.2*rand(HiddenUnitNum,InDim)-0.1;
    B1=0.2*rand(HiddenUnitNum,1)-0.1;
    W2=0.2*rand(OutDim,HiddenUnitNum)-0.1;
    B2=0.2*rand(OutDim,1)-0.1;
    W1Ex=;
    W2Ex=;
    SamInEx=';
    ErrHistory=[];
    for i=1:MaxEpochs %正向传播计算网络输出
      HiddenOut=logsig(W1Ex*SamInEx);
      HiddenOutEx=';
      NetworkOut=logsig(W2Ex*HiddenOutEx);
      % 停止学习判断
      Error=SamOut-NetworkOut;
      SSE=sumsqr(Error)
      %记录每次权值调整后的训练误差
      ErrHistory=;
      if SSE<E0,break,end
      %计算反向传播误差
      Delta2=Error.*NetworkOut.*(1-NetworkOut);
      Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);
      %计算权值调节量
      dW2Ex=Delta2*HiddenOutEx';
      dW1Ex=Delta1*SamInEx';
      %权值调节
      W1Ex=W1Ex+lr*dW1Ex;
      W2Ex=W2Ex+lr*dW2Ex;
      W2=W2Ex(:,1:HiddenUnitNum);
    end
    W1=W1Ex(:,1:InDim);
    B1=W1Ex(:,InDim+1);
    W2=W2Ex(:,1:HiddenUnitNum);
    B2=W2Ex(:,HiddenUnitNum+1);
我的问题:这个学习训练代码有没有问题??如果有,问题是什么?
我自己比较疑惑的是:%计算反向传播误差
      Delta2=Error.*NetworkOut.*(1-NetworkOut);
      Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);
标准的BP算法在计算反向传播误差的时候,要用到激活函数的导数来求(在以前会这样写deltak=deltalin(Ok,E);%计算输出层的delta
deltai=deltatan(Oi,deltak,Wki);%计算隐含层的deita
但是deltalin和deltatan都是旧版本的导函数),我以上自己的写法求反向误差对不对啊(就是 Delta2=Error.*NetworkOut.*(1-NetworkOut);
      Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);如果对,里面为什么没有导函数),恳请高手指教!!!!
页: [1]
查看完整版本: BP高手请您看过来,看下我写的Matlab源代码存在的问题