本站原创文章,转载请说明来自《老饼讲解-BP神经网络》bp.bbbdata.com
训练方法
训练函数 | 训练方法 |
---|---|
traingd | 梯度下降法 |
traingdm | 有动量的梯度下降法 |
traingda | 自适应lr梯度下降法 |
traingdx | 自适应lr动量梯度下降法 |
trainrp | 弹性梯度下降法 |
traincgf | Fletcher-Reeves共轭梯度法 |
traincgp | Ploak-Ribiere共轭梯度法 |
traincgb | Powell-Beale共轭梯度法 |
trainscg | 量化共轭梯度法 |
trainbfg | 拟牛顿算法 |
trainoss | 一步正割算法 |
trainlm | Levenberg-Marquardt |
传递函数
函数 | 函数名称 | 英语解释 |
tansig | 对称S形函数 | Symmetric sigmoid transfer function. |
logsig | 对数S形函数 | Logarithmic sigmoid transfer function. |
elliotsig | Elliot S形函数 | Elliot sigmoid transfer function. |
hardlim | 正硬限制函数 | Positive hard limit transfer function. |
hardlims | 对称硬限制函数 | Symmetric hard limit transfer function. |
poslin | 正线性函数 | Positive linear transfer function. |
purelin | 线性函数 | Linear transfer function. |
satlin | 正线性饱和函数 | Positive saturating linear transfer function. |
satlins | 对称线性饱和函数 | Symmetric saturating linear transfer function. |
netinv | 反比函数 | Inverse transfer function. |
tribas | 三角基函数 | Triangular basis transfer function. |
radbas | 径向基函数 | Radial basis transfer function. |
radbasn | 标准化径向基函数 | Radial basis normalized transfer function. |
compet | 竞争函数 | Competitive transfer function. |
softmax | 软最大化函数 | Soft max transfer function. |
训练参数
参数名称 | 解释 | 适用方法 |
---|---|---|
net.trainParam.epochs | 最大训练次数(缺省为10) | 全部 |
net.trainParam.goal | 训练要求精度(缺省为0) | 全部 |
net.trainParam.lr | 学习率(缺省为0.01) | 全部 |
net.trainParam.max_fail | 最大失败次数(缺省为5) | 全部 |
net.trainParam.min_grad | 最小梯度要求(缺省为1e-10) | 全部 |
net.trainParam.show | 显示训练迭代过程(NaN表示不显示,缺省为25) | 全部 |
net.trainParam.time | 最大训练时间(缺省为inf) | 全部 |
net.trainParam.mc | 动量因子(缺省0.9) | traingdm、traingdx |
net.trainParam.lr_inc | 学习率lr增长比(缺省为1.05) | traingda、traingdx |
net.trainParam.lr_dec | 学习率lr下降比(缺省为0.7) | traingda、traingdx |
net.trainParam.max_perf_inc | 表现函数增加最大比(缺省为1.04) | traingda、traingdx |
net.trainParam.delt_inc | 权值变化增加量(缺省为1.2) | trainrp |
net.trainParam.delt_dec | 权值变化减小量(缺省为0.5) | trainrp |
net.trainParam.delt0 | 初始权值变化(缺省为0.07) | trainrp |
net.trainParam.deltamax | 权值变化最大值(缺省为50.0) | trainrp |
net.trainParam.searchFcn | 一维线性搜索方法(缺省为srchcha) | traincgf、traincgp、traincgb、trainbfg、trainoss |
net.trainParam.sigma | 因为二次求导对权值调整的影响参数(缺省值5.0e-5) | trainscg |
net.trainParam.lambda | Hessian矩阵不确定性调节参数(缺省为5.0e-7) | trainscg |
net.trainParam.men_reduc | 控制计算机内存/速度的参量,内存较大设为1,否则设为2(缺省为1) | trainlm |
net.trainParam.mu | 的初始值(缺省为0.001) | trainlm |
net.trainParam.mu_dec | 的减小率(缺省为0.1) | trainlm |
net.trainParam.mu_inc | 的增长率(缺省为10) | trainlm |
net.trainParam.mu_max | 的最大值(缺省为1e10) | trainlm |