当前位置:首页 > 智能控制习题答案
b)在matlab中simulink仿真图如下:
第四章 神经网络基础
1、生物神经元模型的结构功能是什么? 答:生物神经元结构:
(1)、细胞体:由细胞核、细胞质和细胞膜等组成。 (2)、树突:胞体上短而多分枝的突起。相当于神经元的输入端,接受传入的神经冲动。 (3)、轴突:胞体上最长枝的突起,也称神经纤维。端部有很多神经末稍传出神经冲动。 (4)、突触:神经元间的连接接口,每个神经元约有1万~10万个突触。神经元通过其轴突的神经末稍,经突触与另一神经元的树突联接,实现信息的传递。由于突触的信息传递特性是可变的,形成了神经元间联接的柔性,称为结构的可塑性。
(5)、细胞膜电位:神经细胞在受到电的、化学的、机械的刺激后,能产生兴奋,此时,细胞内外有电位差,称膜电位。电位膜内为正,膜外为负。
生物神经元功能: (1)、兴奋与抑制
当传入神经元的冲动,经整合,使细胞膜电位升高,超过动作电位的阈值时,为兴奋状态,产生神经冲动,由轴突经神经末稍传出。
当传入神经元的冲动,经整合,使细胞膜电位降低,低于阈值时,为抑制状态,不产生神经冲动。 (2)、学习与遗忘
由于神经元结构的可塑性,突触的传递作用可增强与减弱,因此,神经元有学习与遗忘的功能。 2、人工神经元模型的特点是什么? 答:人工神经元模型的特点:
(1)、神经元及其联接;(2)、神经元间的联接强度决定信号传递的强弱;(3)、神经元间的联接强度是可以随训练改变的;(4)、信号是可以起刺激作用的,也可以起抑制作用;(5)、一个神经元接受的信号的累积效果决定该神经元的状态;(6)、每个神经元可以有一个“阈值”。 3、人工神经网络的特点是什么?如何分类? 答:人工神经网络的特点:
(1)、非线性(2)、分布处理(3)、学习并行和自适应(4)、数据融合(5)、适用于多变量系统 (6)、便于硬件实现 人工神经网络的分类:
根据神经网络的连接方式,神经网络可分为三种形式: (1)、前向网络:神经元分层排列,组成输入层、隐含层和输出层。每一层的神经元只接受前一层神经元的输入。输入模式经过各层顺次的变换后,由输出层输出。在各神经元间不存在反馈。感知器和误差反向传播网络采用前向网络形式。
(2)、反馈网络:该网络结构在输出层到输入层存在反馈,即每一个输入节点都有可能接受来自外部的输入和来
自输出神经元的反馈。这种神经网络是一种反馈动力学系统,它需要工作一段时间才能达到稳定。
(3)、自组织网络:当神经网络在接受外界输入时,网络将会分成不同的区域,不同区域具有不同的响应特征,即不同的神经元以最佳方式响应不同性质的信号激励,从而形成一种拓扑意义上的特征图,该图实际上是一种非线性映射。这种映射是通过无监督的自适应过程完成的,所以也称为自组织特征图。 4、有哪几种常用的神经网络学习算法? 常用的神经网络学习算法: (1)、有教师学习:在学习过程中,网络根据实际输出与期望输出的比较,进行联接权系的调整,将期望输出称导师信号是评价学习的标准。
(2)、无教师学习:无导师信号提供给网络,网络能根据其特有的结构和学习规则,进行联接权系的调整,此时网络学习评价的标准隐含于其内部。
(3)、再励学习:把学习看为试探评价过程,学习及选择一动作作用于环境,环境的状态改变,并产生再励信号反馈至学习机,学习机依据再励信号与环境当前的状态,再选择下一动作作用于环境,选择的原则是使受到奖励的可能性增大。
(4)、Hebb学习规则 (5)、Delta学习规则
第五章 典型神经网络
1、BP算法的特点是什么?增大权值是否能够使BP学习变慢?
答:误差反向传播的BP算法简称BP算法,是有导师的学习,其基本思想是梯度下降法。它采用梯度搜索技术,以使网络的实际输出值与期望输出值的误差均方值为最小。学习的过程由正向传播和反向传播组成,在正向过程中,输入信息由输入层经隐层逐层处理,并传向输出层,每层神经元的状态只影响下一层神经元的状态,如果在输出层不能得到期望的输出,则转至反向传播,将误差信号按连接通路反向计算,由梯度下降法来调整各层神经元的权值,使误差信号减小。
主要优点:(1)非线性映射能力:无需事先了解描述这种映射关系的数学方程,只要提供足够多的样本模式对BP网络进行详细训练,它便能完成由n维输入空间到m输出空间的非线性映射。(2)泛化能力:当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射,这种能力称为多层前馈网络的泛化能力。(3)容错能力:输入样本中带有较大的误差,甚至个别错误对网络的输入输出规律影响很小。
标准的BP算法内在的缺陷:(1)易形成局部极小而得不到全局最优;(2)训练次数多使得学习效率低,收敛速度慢;(3)隐节点的选取缺乏理论指导;(4)训练时学习新样本有遗忘旧样本的趋势。增大权值不一定能够使BP学习变慢,由BP权值修正的原理可知,权值调整公式可汇总如下:
2、为什么说BP网络是全局逼近的,而RBF网络是局部逼近的?它们各有突出的特点是什么?
BP网络的活化函数为S函数,其值在输入空间中无限大的范围内为非零值,因而是全局逼近的神经网络。
其突出特点如下:1、是一种多层网络化,包括输入层、隐含层和输出层;2、层与层之间采用全互联方式,同一层神经元不连接;3、权值通过delta 学习算法进行调节;4、神经元活化(激发)函数为S函数;5、学习算法由正向算法和反向算法组成;6、层与层之间的连接时单向的,信息的传播史双向的。
RBF网络的活化函数为高斯基函数,其值在输入空间中有限范围内为非零值,并且RBF神经网络的神经元具有局部逼近的神经网络。其输出特点如下:1、RBF径向基函数是局部的,学习速度快;2、已证明RBF网络具有唯一最佳逼近的特性,且无局部最小;3、在函数创建过程中可以自动增加隐含层的神经元个数,直到满足均方差要求为止无需单独的代码来训练函数,网络的创建过程就是训练过程。4、RBF网络用于非线性系统辨识与控制中,虽具有唯一最佳逼近特性,且无局部最小的优点,避免去确定隐层和隐层点数,网络可以根据具体问题自适应的调整,因此适应性更好。
3、何为神经网络的泛化能力?影响泛化能力的因素有哪些? 答:泛化能力(综合能力、概括能力):用较少的样本进行训练,是网络能在给定的区域内达到要求的精度。所以没有泛化能力的网络没有使用价值。
影响泛化能力的因素:1、样本;2、结构;3、初始权值4、训练样本集;5、需测试集。 4. 已知一个非线性函数y?1(?x12)sin(2?x2),试用三层BP网络逼近输出y,画出网络的结构,写出网络各层节点2的表达式以及各层节点输出值的范围。 解:非线性函数y?1(?x12)sin(2?x2)画出三层BP网络的结构图 2
由输入得到两个隐节点、一个输出层节点的输出,输入层不考虑阈值 两个隐节点、一个输出层节点输出为
活化函数选择S型函数y?f(xl)?1 ?xl1?e如教材例6.1,取第一个输入、输出神经元与各隐含神经元的连接权均为1,第二个输入、输出神经元与各隐含层单元的连接权为2.则
由上式可得
第六章 高级神经网络
k1.PID控制器的一般形式为u(k)?kpe(k)?ki?e(j)?k[e(k)?e(k?1)],也可写成等价形式
dj?0u(k)?k1u1(k)?k2u2(k)?k3u3(k),其中u1(k)?e(k),u2(k)??e(k),j?0k,k1,k2,k3为PID控制器kp,ki,kd三个参数u3(k)??e(k)?e(k)?e(k?1)的线性表示。这一形式可以看成以u1(k),u2(k),u3(k)为输入,k1,k2,k3为权系数的神经网络结构,试推导出自适应神经网络PID控制器参数调整的学习算法。
解:自适应神经网络PID控制器结构如下图所示:
由图可知:控制器由两部分组成,分别为常规PID控制和神经网络。其中,常规PID直接对被控对象进行闭环控制,并且其控制参数kp、ki、kd为在线调整方式;神经网络根据系统的运动状态,调节PID控制器的参数,使输出层神经元的输出对应于PID控制器的三个可调参数。
学习算法如下:首先确定神经网络的结构,即确定输入节点数和隐含层节点数,并给出各层加权系数的初值w1和w2,并选定学习速率和惯性系数,令k=1;采样得到r(k)和y(k),计算当前时刻误差r(k)-y(k);计算各神经网络的输入和输出,其输出层的输出即为PID控制器的三个控制参数kp、ki、kd并计算PID控制器的输出进行神经网络学习,在线调整加权系数,实现PID控制参数的自适应调整;令k=k1,进行上述步骤。 网络各层输入输出算法:
共分享92篇相关文档