当前位置:首页 > 本科毕业论文-—基于神经网络的非线性自适应控制研究
青岛科技大学本科毕业设计(论文)
PSE)。这种方法利用统计分析,用表达式表示网络的推广性能.该表达式是训练集的性能、系统中自由参数的个数、训练集大小等的函数。
J.Moody针对一个利用复杂性正则化(Complexity Regularization)项来训练的系统,提出后了广义预测误差(Generalized Predication Error. OPE)方法。由于所州的复杂性正则化项,有效参数比赛际参数数口少得多。
Freeman等从理论上分析了RBF网络的推广能力的问厝。通过对推广能力与训练数据对、最优训练参数及基函数的相互作用的分析,得出了以下结论:
1、当权值矢量完全可以用学习教导出时.RBF的推广能力与所训练的数据数成正比。
2、为了达到RBF网络较好的推广能力,网络的训练参数也需要最优的设置,基函数交叠强的RBF网络具有较好的推广能力,并有利于提高网络的学习速度。这些结论对实际应用具有较好的指导作用。
4.5 RBF神经网络逼近特性
从上面的描述我们可以知道,RBF神经两络具有最佳逼近特性,任意给出一个未知的非线性函数f,总可以得到组权值使得RBF网络对于厂的逼近优于所有其它可能的选择。下面,利用MATLAB软件来仿真RBF神经网络的逼近特性。所做的工作是对于同一个RBF神经网络,选择不同的连续函数,来模拟仿真其逼近特性.在网络设计中,采用高斯函数作为基函数,误差指标设为0.01。
1、逼近函数T?sin(X?)?cos(2X?)?X2,仿真结果如图4.2和图4.3所示
41
基于神经网络的非线性自适应控制研究
图4.2 逼近函数T?sin(X?)?cos(2X?)?X2
图4.3逼近误差性能
2、逼近函数T?sin(2X?)?cos(X?),仿真结果如图4.4和图4.5所示
42
青岛科技大学本科毕业设计(论文)
图4.4 逼近函数T?sin(2X?)?cos(X?)
图4.5逼近误差性能
从上面的仿真结果我们可以比较看出,同一个RBF神经网络,对不同的连
43
基于神经网络的非线性自适应控制研究
续函数,其逼近效果非常好,逼近误差也在一定的时间内能达到了期望的要求,这也说明了该RBF神经网络具有比较好的推广能力。
44
共分享92篇相关文档