PID神经网络教学课件PPT.ppt

上传人:p** 文档编号:622728 上传时间:2023-12-10 格式:PPT 页数:32 大小:907KB
下载 相关 举报
PID神经网络教学课件PPT.ppt_第1页
第1页 / 共32页
PID神经网络教学课件PPT.ppt_第2页
第2页 / 共32页
PID神经网络教学课件PPT.ppt_第3页
第3页 / 共32页
PID神经网络教学课件PPT.ppt_第4页
第4页 / 共32页
PID神经网络教学课件PPT.ppt_第5页
第5页 / 共32页
PID神经网络教学课件PPT.ppt_第6页
第6页 / 共32页
PID神经网络教学课件PPT.ppt_第7页
第7页 / 共32页
PID神经网络教学课件PPT.ppt_第8页
第8页 / 共32页
PID神经网络教学课件PPT.ppt_第9页
第9页 / 共32页
PID神经网络教学课件PPT.ppt_第10页
第10页 / 共32页
亲,该文档总共32页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《PID神经网络教学课件PPT.ppt》由会员分享,可在线阅读,更多相关《PID神经网络教学课件PPT.ppt(32页珍藏版)》请在第壹文秘上搜索。

1、10.1 10.1 绪论绪论10.2 PID10.2 PID神经元的计算方法神经元的计算方法10.3 PID10.3 PID神经元网络神经元网络 10.4 SPID10.4 SPID网络的反传算法网络的反传算法10.5 PID10.5 PID网络初值权重的选取和等价系统网络初值权重的选取和等价系统 由于被控对象的复杂性、大规模和确定性、分布性,要实现自动控制,那么基于传统精确数学模型的控制理论就显现出极大的局限性。传统的控制理论虽然也有办法对付控制对象的不确定性和复杂性,如自适应控制和鲁棒控制。自适应控制是以自动调节控制器的参数,使其与被控对象和环境达到良好的“匹配”,以削弱不确定性的影响。从

2、本质上说,自适应控制是通过估计系统某些重要参数,以补偿的方法克服系统参数在一定范围内的慢变化。鲁棒控制是在一定的外部干扰和内部参数变化作用下,以提高系统的灵敏度为宗旨来抵御不确定性的。根据这一思想和原则所导出的算法,其鲁棒的区域是很有限的。一般神经网络的弱点,包括以下问题:一般神经元网络的学习和训练时间很长。由于神经网络结构确定往往要通过反复实验才可能确定,所以给控制器实际应用方面带来困难。有的网络在学习时会陷入局部极小(BP),有的网络关键参数确定有困难(RBF)。传统系统神经网络的结构、参数和机能,难以与控制系统所要求的响应快、超调小、无静差、静态指标相联系。传统的多层前向神经网络的神经元

3、仅具有静态输入输出特性,用它构成控制系统时必须附加其它动态部件。0()()()()tPIDde tu tk e tkedkdt,PIDkk k 配合适应.可得到快速敏捷.平稳准确的调节效果.但其合理、快速、实时的确定是关键。PID在本质上是线性控制规律,具有传统控制理论的弱点只适合于线性SISO系统,在复杂系统中控制效果不佳。神经元网络和神经元网络和PIDPID控制结合的两种流行方法:控制结合的两种流行方法:缺点:结构复杂、不能避免神经网络自身的缺陷。缺点:a:仍是选择PID参数的方法。b:神经元起的作用相当于单层感知器,只具有线性分类能力.nPIDNN属于交层前向神经元网络;nPIDNN参照

4、PID控制规律构成,结构比较简单、规范。nPIDNN的初值按PID控制规律的基本原则确定,加快了收敛速度,不易陷入极小点;更重要的是可以利用现有的PID控制的大量经验数据确定网络权重初值,使控制系统保持初始稳定,使系统的全局稳定成为可能。nPIDNN可采用“无教师”的学习方式,根据控制效果进行在线自学习和调整,使系统具备较好的性能。nPIDNN可同时适用于SISO以及MIMO控制系统。比例元的输入为11()()njijijnet kw x k1)1)比例元比例元 比例元的状态函数 ()()jju knet k 比例元的输出函数 2)2)积分元积分元 ()(),(1)(1)()jIijjju k

5、g net k u ku knet k积分元的输入和输出函数与比例函数相同。3)3)微分元微分元 ()(),(1)()(1)jDjjjju kg net k net knet knet k微分元的输入和输出函数与比例函数相同。将PID和一般神经元网络融合起来的方法包括两个步骤:将PID功能引入神经网络的神经元中,构成PID神经元(第二节完成);按照PID神经元的控制规律的基本模式,用这些基本神经元构成新的神经元网络,并找到合理有效的计算与学习方法(下节完成)。ry SPIDNN的前向算法根据网络的两个输入值,按网络当前权重值和各层状态函数和输出函数形成网络的输出。1)1)输入层输入层 SPID

6、NN的输入层有两个神经元,在构成控制系统可分别输入系统被调量的给定值和实际值。在任意采样时刻k,其输入:12()()()()net kr knet ky k(10.1)()()iiu knet k输入层神经元的状态为:(10.2)输入层神经元的输出为:1,()1()(),1()11,()1jiijju kx ku ku ku k (10.3)以上各式中i=1,2;j=1,2,3。2)2)隐含层隐含层 隐含层是神经元网络中最重要的层次,SPIDNN的隐含层有三个神经元,分别为比例元、积分元和微分元,它们各自的输入总值均为:21()()jijiinetkx k(10.4)式中:j=1,2,3;为输

7、入层至隐含层的连接权重值。ij比例元的状态为:)()(11knetku积分元的状态为:(10.5)222()(1)()u ku knet k 微分元的状态为:333()()(1)u knet knet k(10.6)(10.7)隐含层各神经元的输出为1,()1()(),1()11,()1jjjjju kx ku ku ku k (10.8)3)3)输出层输出层 SPIDNN的输出层结构比较简单,它只包含一个神经元,完成网络的总和输出功能,其总输入为:31()()jjjnet kx k(10.9)输出层神经元的输出为:1,()1()(),1()11,()1u kx ku ku ku k SPID

8、NN的输出 就等于输出层神经元的输出:)(k()()kx k输出层神经元的状态函数与比例元的状态函数相同:()()u knet k(10.10)(10.11)(10.12)反传算法即误差反向传播学习算法,它完成网络权重值的修改,完成学习和记忆的功能。SPIDNN的反传算法与传统多层前向神经元网络的反传算法类似。设训练输入矢量的集合为:12,PRR RR其中某个训练输入矢量为:12(,)TPPPRrr(1),(2),(),pipipipirrrrlSPIDNN的实际输出矢量的集合为:12(,)TpVvvv式中(1),(2),()ppppvvvvll为采样点数。(10.13)(10.14)SPID

9、NN的理想输出矢量的集合为:12,pVvvv式中(1),(2),()ppppvvvvl SPIDNN训练和学习的目的是使网络实际输出和理想输出的对应时间序列的偏差平方均值为最小:211()()lkEvkv kl按梯度法调节SPIDNN权重值,经n0步训练和,SPIDNN各层权重值的迭代方程为:00(1)()EW nW nW(10.16)(10.17)(10.15)1 1)隐含层至输出层)隐含层至输出层隐含层至输出层的权重值迭代公式为:00(1)()jjjjEw nw nw21112()()()()jjllkkEEvxunetwvxunetwv kv kv kv kv ll 式中1vxxx(10

10、.18)(10.19)(注意到注意到(10.16)(10.16)式式)(10.20)注意到(10.12)式,可求出:1unetnetnet注意到(10.11)式,可求出:1xuuu(10.21)注意到(10.10)式,可求出:(10.22)由式(10.8)和(10.9),可求出:)()(31kxkxwwwnetjjjjjj(10.23)2()()()jjEv kv k x kwl 令()2()()kv kv k(10.24)式可简化为:11()()ljkjEk x kwl 2 2)输出层至隐含层)输出层至隐含层输入层至隐含层的权重值迭代公式为00(1)()ijijijijEw nw nw将式(

11、10.20)至式(3.23)代回式(10.19),可得:(10.24)(10.25)(10.26)由误差反向传播关系,其中jjjijjjjijxunetEEvxunetwvxunetxunetw由式(10.21)至式(10.23)结果,可以得出:(10.27)11()lkEvxukvxunetl 31jjjjjjnetw xwxx由式(10.9),可求出:由式(10.8),可求出:1jjjjxuuu(10.28)(10.29)(10.30)如果 和 相等或相差很小时,上式的结果可能会趋于无穷大,计算机无法进行计算,因此要采用近似方法。()jnet k(1)jnet k 对于神经元网络权重值的收

12、敛,收敛方向是最重要的,收敛速度还可以通过其他因子调节。所以,可以用 和 的相对变化量的符号函数近似代替式(10.31),即采用 jnetju式(10.27)中的()(1)()(1)jjjjjjjjuuu ku knetnetnet knet k(10.31)()(1)sgn()(1)jjjju ku knet knet k代替 jjunet 由式(10.4),可求出 ()()jjijiijijnetx kwx kww将式(10.28)至式(10.32)代回式(10.27),可得1()(1)1()sgn()()(1)ljjjikijjju ku kEkwx kwlnet knet k令()(1

13、)()()sgn()(1)jjjjju ku kkkwnet knet k则式(10.33)可简化为:11()()likijEkx kwl(10.35)(10.34)(10.33)(10.32)神经元网络连接权重初值的选取对于神经元网络的学习和收敛速度是很重要的,因为连接权重初值决定了网络学习的起始点和收敛的初始方向。恰当的选取连接权重初值,可使网络的学习和收敛速度加快,且能避免陷入局部最小,达到事半功倍的效果。目前对传统神经元网络连接权重初值的选取尚无固定的准则,一般只能取随机数,这将导致出现以下两个问题。(1)连接权重初值取随机数,网络学习的起始点和收敛的初始方向将是随机的,要使收敛方向归

14、于正确必须要经过反复的训练和学习,这是一般神经元网络收敛速度慢的原因之一。同时,对于采用反传算法的网络,随即的起点将导致收敛陷入局部最小点。(2)在神经元网络作为控制系统中的控制器时,网络连接权重初值的选取还关系着系统的稳定性。如果网络连接权重初值取随机数,按此初值工作的神经元网络控制器很难保证系统初始工作的稳定性。在实际控制过程中,如果此神经元网络控制系统初始状态是不稳定的,系统根本无法正常工作。这种情况下,即使此神经元网络的学习算法是收敛的也无济于事,没有实用价值。很多神经元网络不能用于实际系统控制,就是因为其不能保证系统全过程稳定。PIDNN连接权重初值的选取原则是参照PID控制器的特点确定的。实现(r,y)e的映射,选输入层至隐含层的连接权初值:11jw 21jw 使SPIDNN在初始连接权时的输出等价于PID控制器输出。pKw 12IwKDKw 3123()0.34,()0.32,()0.33w ow ow o1230.308,0.3176,0.278www123()0.34,()0.32,()0.33w ow ow o

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 大学课件

copyright@ 2008-2023 1wenmi网站版权所有

经营许可证编号:宁ICP备2022001189号-1

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第壹文秘网,我们立即给予删除!