模型的训练

BP网络的训练就是通过应用误差反传原理不断调整网络权值使网络模型输出值与已知的训练样本输出值之间的误差平方和达到最小或小于某一期望值。

训练模型

训练方法 训练函数
梯度下降法 traingd
有动量的梯度下降法 traingdm
自适应lr梯度下降法 traingda
自适应lr动量梯度下降法 traingdx
弹性梯度下降法 trainrp
Fletcher-Reeves共轭梯度法 traincgf
Ploak-Ribiere共轭梯度法 traincgp
Powell-Beale共轭梯度法 traincgb
量化共轭梯度法 trainscg
拟牛顿算法 trainbfg
一步正割算法 trainoss
Levenberg-Marquardt trainlm

BP网络的构建

  1. 生成BP网络
net=newff(PR,[S1 S2 ... SNl],{TF1 TF2 ... TFNl},BTF)

PR: 由R维的输入样本最小最大值构成的R*2维矩阵
[S1 S2 ... SNl]:各层的神经元个数
{TF1 TF2 ... TFNl}:各层的神经元传递函数

  1. 网络训练
net=train(net,P,T)

P:标准输入
T:标准输出

  1. 网络仿真
Y2=sim(net,P2)

代码示例

pn=p1';tn=t1'; 
[m,n]=size(t);
 [pn,minp,maxp,tn,mint,maxt]=premnmx(p,t);%归一化 
 net=newff(pn,[5,1],{'tansig','purelin'},'traingd'); %设置网络,建立相应的BP网络,底层神经元个数5,输出神经元个数1,输入到隐藏的激活函数tansig,隐藏到输入到purelin,训练函数traingd
net.trainParam.show=50; % 训练网络,每隔50步展现下算法
net.trainParam.lr=0.01; %学习率0.01  
net.trainParam.epochs=1000; %训练1000步(训练停止方式:epochs和goal)
net.trainParam.goal=1e-5;
[net,tr]=train(net ,pn,tn);%得到结果              
anewn=sim(net,ps);      %对BP网络进行仿真
figure;hold on
plot(anewn,'b',tn,'r');
wucha=sum(abs(b-r))/n;%误差输出

  %traingd
  clear;
  clc;
  P=[-1 -1 2 2 4;0 5 0 5 7];%输入
  T=[-1 -1 1 1 -1];%输出  输入到矩阵——行代表因子 列代表样本(数量)
  %利用minmax函数求输入样本范围
  net = newff(minmax(P),[7,1],{'tansig','purelin'},'trainlm');
  net.trainParam.show=50;%
  net.trainParam.lr=0.05;
  net.trainParam.epochs=1000;
  net.trainParam.goal=1e-5;
[net,tr]=train(net,P,T);
net.iw{1,1}%隐层权值
net.b{1}%隐层阈值
net.lw{2,1}%输出层权值
net.b{2}%输出层阈值
y3=sim(net,P);
Logo

GitCode 天启AI是一款由 GitCode 团队打造的智能助手,基于先进的LLM(大语言模型)与多智能体 Agent 技术构建,致力于为用户提供高效、智能、多模态的创作与开发支持。它不仅支持自然语言对话,还具备处理文件、生成 PPT、撰写分析报告、开发 Web 应用等多项能力,真正做到“一句话,让 Al帮你完成复杂任务”。

更多推荐