径向基神经网络
1、径向基函数 (Radial Basis Function,RBF) 神经网络是一种性能良好的前向网络,具有最佳逼近、训练简洁、学习收敛速度快以及克服局部最小值问题的性能,目前已经证明径向基网络能够以任意精度逼近任意连续的函数。因此它已经被广泛应用于模式识别、非线性控制和图像处理等领域。
2、RBF神经网络的结构--RBF 神经网络的基本思想是用径向基函数(RBF)作为隐单元,的“基” ,构成隐含层的空间,隐含层对输入矢量进行变换,将低维的模式输入数据转换到高位空间内,使得在低维空间内的线性不可分为题在高维空间内线性可分。
3、RBF 神经网络神经网络有很强的非线性拟合能力,可映射任意复杂的非线性关系,而且学习规则简单,便于计算机实现。具有很强的鲁棒性、记忆能力、非线性映射能力以及强大的自学习能力,因此有很大的应用市场。RBF 神经网络是一种性能优良的前馈型神经网络,RBF 网络可以任意精度逼近任意的非线性函数,且具有全局逼近能力,从根本上解决了BP网络的局部最优问题,而且拓扑结构紧凑,结构参数可实现分离学习,收敛速度快。RBF 网络和模糊逻辑能够很好的实现互补,提高神经网络的学习泛化能力。
4、RBF 神经网络结构与多层前向网络类似,它一般由输入层、隐含层和输出层构成。第一层为输入层,由信号源节点组成,传递信号到隐层。第二层为隐层,隐层节点的变换函数是对中心点径向对称且衰减的非负非线性函数。第三层为输出层,一般是简单的线性函数,对输入模式作出响应。其结构如图3.8所示
RBF 神经网络输入层到隐含层之间的权值固定为1,隐含层单元的传递函数采用了径向基函数,隐含层神经元是将该层权值向量Wi与输入向量Xi之间的矢量距离与偏差bi 相乘后作为该神经元激活函数的输入。若取径向基函数为高斯函数,则神经元的输出为:
xi为核函数的中心,σ为函数宽度参数,用它来确定每一个径向基层神经元对其输入矢量,也就是X与w之间距离相对应的径向基函数的宽度。从上面的RBF网络的结构图我们可以,确定RBF网络结构的过程就是确定隐含层神经元的中心
xi、宽度σ以及输出权值w的过程。
5、RBF网络的学习算法
RBF网络要学习的参数有三个:基函数的中心xi和方差σ以及隐含层与输出层之间的权值w 。根据径向基函数中心选取方法的不同,RBF网络有多种学习方法,其中最常用的有四种学习方法:随机选取中心法、k-均值聚类算法、自组织选取中心法和正交最小二乘法。
①、确定基函数的中心xi
②、确定基函数的方差σ
一旦RBF 神经网络的中心确定以后,那么其宽度由下列公式来确定:
其中,n为隐含层单元的个数,di为所选中心之间的最大距离。
③、隐含层到输出层之间的权值w
RBF神经网络的介绍:点击打开链接
实验数据集 点击打开链接
- clear all
- clc %清除命令窗口
- load Data-Ass2;
- d=data'; %求转置
- dat=d(1:2500,1:2);
- labels=d(1:2500,3);
- inputNums=2; %输入层节点
- outputNums=1; %输出层节点 许多情况下直接用1表示
- hideNums=10; %隐层节点数
- maxcount=1000; %最大迭代次数
- samplenum=2500; %一个计数器,无意义
- precision=0.001; %预设精度
- alpha=0.01; %学习率设定值
- a=0.5; %BP优化算法的一个设定值,对上组训练的调整值按比例修改
- error=zeros(1,maxcount+1); %error数组初始化;目的是预分配内存空间
- errorp=zeros(1,samplenum); %同上
- w=rand(hideNums,outputNums); %10*3;w表隐层到输出层的权值
- %求聚类中心
- [Idx,C]=kmeans(dat,hideNums);
- %X 2500*2的数据矩阵
- %K 表示将X划分为几类
- %Idx 2500*1的向量,存储的是每个点的聚类标号
- %C 10*2的矩阵,存储的是K个聚类质心位置
- %求扩展常数
- dd=zeros(1,10);
- for i=1:10
- dmin=10000;
- for j=1:10
- ddd=(C(i,1)-C(j,1))^2+(C(i,2)-C(j,2))^2;
- if(ddd<dmin&&i~=j)
- dmin=ddd;
- end
- end
- dd(i)=dmin;
- end
- %b为进行计算后隐含层的输入矩阵
- b=zeros(2500,10);
- for i=1:2500
- for j=1:10
- b(i,j)=exp( -( (dat(i,1)-C(j,1))^2+(dat(i,2)-C(j,2))^2 )/(2*dd(j)) );%dd为扩展常数
- end
- end
- count=1;
- while (count<=maxcount) %结束条件1迭代1000次
- c=1;
- while (c<=samplenum)%对于每个样本输入,计算输出,进行一次BP训练,samplenum为2500
- %o输出的值
- double o;
- o=0.0;
- for i=1:hideNums
- o=o+b(c,i)*w(i,1);
- end
- %反馈/修改;
- errortmp=0.0;
- errortmp=errortmp+(labels(c,1)-o)^2; % 第一组训练后的误差计算
- errorp(c)=0.5*errortmp;
- yitao=labels(c,1)-o; %输出层误差
- for i=1:hideNums %调节到每个隐藏点到输出点的权重
- w(i,1)=w(i,1)+alpha*yitao*b(c,i);%权值调整
- end
- c=c+1; %输入下一个样本数据
- end %第二个while结束;表示一次训练结束
- %求最后一次迭代的误差
- double tmp;
- tmp=0.0; %字串8
- for i=1:samplenum
- tmp=tmp+errorp(i)*errorp(i);%误差求和
- end
- tmp=tmp/c;
- error(count)=sqrt(tmp);%求迭代第count轮的误差求均方根,即精度
- if (error(count)<precision)%另一个结束条件
- break;
- end
- count=count+1;%训练次数加1
- end
- %测试
- test=zeros(500,10);
- for i=2501:3000
- for j=1:10
- test(i-2500,j)=exp( -( (d(i,1)-C(j,1))^2+(d(i,2)-C(j,2))^2 )/(2*dd(j)) );%dd为扩展常数
- end
- end
- count=0;
- for i=2501:3000
- net=0.0;
- for j=1:hideNums
- net=net+test(i-2500,j)*w(j,1);
- end
- if( (net>0&&d(i,3)==1) || (net<=0&&d(i,3)==-1) )
- count=count+1;
- end
- end