liximei 发表于 2006-6-23 22:00

小女子请教:matlab中神经网络问题

P=;<BR>&gt;&gt; T=;<BR>&gt;&gt; plot(P,T,'+');<BR>&gt;&gt; xlabel('输入向量 P');<BR>&gt;&gt; ylabel('目标向量 T');<BR>&gt;&gt; title('训练向量');<BR>&gt;&gt; net=newff(,,{'tansig','purelin'},'trainlm');<BR>&gt;&gt; net=init(net);<BR>&gt;&gt; net.trainparam.show=100;<BR>&gt;&gt; net.trainparam.epochs=20000;<BR>&gt;&gt; net.trainparam.goal=0.0001;<BR>net.trainparam.lr=0.01;<BR>&gt;&gt; net=train(net,P,T);<BR>TRAINLM, Epoch 0/20000, MSE 5.42199e+007/0.0001, Gradient 229326/1e-010<BR>TRAINLM, Epoch 4/20000, MSE 9.29022e+006/0.0001, Gradient 3.6629e-011/1e-010<BR>TRAINLM, Minimum gradient reached, performance goal was not met.<BR>哪位大虾,请帮我看下,我这个程序错在哪里,不胜感激

lxq 发表于 2006-6-24 00:15

&gt;&gt; net=init(net);<BR>&gt;&gt; net.trainparam.show=100;<BR>&gt;&gt; net.trainparam.epochs=20000;<BR>&gt;&gt; net.trainparam.goal=0.0001;<BR><BR>TRAINLM, Minimum gradient reached, performance goal was not met.<BR><BR>训练目标放小点看看~~<BR>%net=init(net);不初始化看看<BR>然后就是多训练几次网络<BR>因为BP网络反向传播误差是很容易陷入局部最小<BR>多试几次可能能得到预期结果<BR>

liximei 发表于 2006-6-24 09:32

很谢谢啊,可我改过了,还是没有达到效果啊

lxq 发表于 2006-6-24 09:34

<P>请问LZ具体用BP网络做什么呀?</P>

jimin 发表于 2006-7-10 02:17

将数据归一化后,就很容易收敛

yu1983619 发表于 2006-7-10 15:08

这样做行不

原帖由 lxq 于 2006-6-24 00:15 发表
&gt;&gt; net=init(net);<BR>&gt;&gt; net.trainparam.show=100;<BR>&gt;&gt; net.trainparam.epochs=20000;<BR>&gt;&gt; net.trainparam.goal=0.0001;<BR ...
P=;
T=/100000;
plot(P,T,'+');
xlabel('输入向量 P');
ylabel('目标向量 T');
title('训练向量');
net=newff(,,{'tansig','purelin'},'trainlm');
net.trainparam.show=100;
net.trainparam.epochs=20000;
net.trainparam.goal=0.0001;
net.trainparam.lr=0.01;
net=train(net,P,T);

ericlin 发表于 2006-7-13 13:00

对啊,发现很多用神经网络的都忘了归一化。

令伶冷 发表于 2006-7-19 10:44

请问

请问为什么必须归一化啊?

[ 本帖最后由 ericlin 于 2006-7-19 19:43 编辑 ]

ericlin 发表于 2006-7-19 19:44

如果不归一化的话,样本中数量级相差很大的话,权重都在数量级大的值上了
页: [1]
查看完整版本: 小女子请教:matlab中神经网络问题