老饼讲解-神经网络
其它神经网络
工具箱DEMO
径向基神经网络
作者 : 老饼 日期 : 2022-06-09 15:09:20 更新 : 2022-06-29 01:37:33
本站原创文章,转载请说明来自《老饼讲解-BP神经网络》bp.bbbdata.com



径向基神经网络是由J.Moody和C.Darken在20世纪80年代末提出的一种基于数学原理的神经网络,可以逼近任意曲线。

本文讲解matlab神经网络工具箱使用径向基神经网络的Demo以及入参说明(基本参考于matlab2014b函数newrb的官方说明)。


  一、简单Demo  


matlab工具箱建立径向基神经网络(newrb)的Demo代码(2014b版matlab实测已跑通):


%代码说明:径向基newrb的matlab工具箱使用Demo
%来自《老饼讲解神经网络》bp.bbbdata.com ,matlab版本:2014b
%-----------------------------------------------------
%----数据准备----
x1  = 1:0.2:10;
x2  = -5:0.2:4;
X   = [x1;x2];              % 输入数据,注意中间是分号
Y   = sin (X(1,:))+X(2,:);  % 输出数据

%----网络训练----
net = newrb(X, Y, 0, 2);    % 以X,Y建立径向基网络,目标误差为0,径向基的spread=2
simY = sim(net, X);         % 用建好的网络拟合原始数据

%----结果对比----
figure(1);
t = 1:size(Y,2);
plot(t,Y,'*',t,simY,'r')  

有些同学会非常奇怪,为什么径向基神经网络不需要调用train来训练网络(像BP神经网络就需要train)。
这是因为matlab工具箱在调用newrb建立径向基神经网络的时候,就已经使用正交最小二乘(OLS)优选算法对神经网络的权重阈值求得最优解了,所以之后不再需要对网络进行训练。




  二、工具箱说明  

翻译matlab给出的doc newrb 文档(为方便大家理解,本人作了些少改动),帮助大家更进一步使用newrb:

语法:

net = newrb(P,T,goal.spread,MN,DF)


描述:

径向基神经网络可以用于拟合函数。newrb会不断向径向基网络的隐层添加神经元,直到网络达到指定的均方误差目标。
 net=newrb(P,T,goal.spread,MN,DF) 至少需要2个入参。返回一个新的径向基神经网络。


入参说明:

P: R行Q列的输入矩阵,R个输入变量,Q个样本。
T: S行Q列的目标输出矩阵,S个输出变量,Q个样本。
goal: 均方误差目标(默认=0.0)
spread: 径向基函数的扩展系数(默认=1.0)
MN :隐层神经元的最大个数(默认是Q)
DF: 每添加DF个神经元,在command窗口打印一次当前结果(文档说默认是25,本人试了,默认是50)

其中,扩展系数spread 越大,拟合的函数越平滑。 
太大的扩展系数,对于拟合迭宕起伏的函数,会需要非常多的神经元;太小的扩展系数,在拟合平滑的函数时会需要很多神经元,而且泛化能力不好。
Too large a spread means a lot of neurons are required to fit a fast-changing function. Too small a spread means many neurons are required to fit a smooth function, and the network might notgeneralize well.
对于给定的问题,通过设置不同的扩展系数调用newrb,来找到最好的扩展系数。



  例子:



对于给定的输入 P和目标T,你可以设计一个径向基神经网络如下:

P = [1 2 3];
T = [2.0 4.1 5.9];
net = newrb(P,T);

下面网络拟合一个新的输入

P = 1.5;
Y = sim(net,P)




  三、算法  


●  newrb创建一个三层的神经网络。第一层是输入层,第二层是径向基隐神经元,第三层是输出层。

输入层到隐层的计算:用dist来计算输入层到隐层的权重与输入,和用netprod计算隐层阈值。
隐层到输出层的计算:用dotprod计算隐层激活值与隐层到输出层的权重,用netsum计算输出层的阈值。


● 刚初始化的径向基层没有神经元,不断的重复下面的步骤直到神经网络的均方误差达到目标。

1)以所有样本建立径向基,作为隐节点池
2)找到令网络预测误差下降最多的隐节点,添加到网络
3)重新计算网络误差
4)检测是否达到终止条件(误差达到目标或没有可用隐节点),否则重复2、3





  End  





联系小饼