收藏 分享(赏)

2022年医学专题—小脑模型神经网络(1).pptx

上传人:g****t 文档编号:2415289 上传时间:2023-06-20 格式:PPTX 页数:21 大小:9.64MB
下载 相关 举报
2022年医学专题—小脑模型神经网络(1).pptx_第1页
第1页 / 共21页
2022年医学专题—小脑模型神经网络(1).pptx_第2页
第2页 / 共21页
2022年医学专题—小脑模型神经网络(1).pptx_第3页
第3页 / 共21页
2022年医学专题—小脑模型神经网络(1).pptx_第4页
第4页 / 共21页
2022年医学专题—小脑模型神经网络(1).pptx_第5页
第5页 / 共21页
2022年医学专题—小脑模型神经网络(1).pptx_第6页
第6页 / 共21页
亲,该文档总共21页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、小脑(xiono)模型神经网络(CMAC),第一页,共二十一页。,PART 01,PART 02,PART 03,PART 04,CMAC网络(wnglu)的基本思想,CMAC网络的结构模型与工作(gngzu)原理,仿真(fn zhn)示例,总结,目录,第二页,共二十一页。,01,CMAC网络(wnglu)的基本思想,1975,J.S.Albus 小脑模型神经网络(CMAC-Cerebellar Model Articulation Controller)局部逼近神经网络:网络输入(shr)空间的某个局部区域只有少数几个连接权影响网络输出,第三页,共二十一页。,02,CMAC网络(wnglu)

2、的结构模型与工作原理,输入空间 U由所有可能的输入向量 Ui 组成,虚拟联想空间Ac是一个虚拟的空间,不占用物理存储,CMAC网络将其接受到的任何输入,映射到联想存储器 Ac中的 c个单元(dnyun)。物理存储空间Ap中存储着网络的权值参数,Ac中的c个单元在物理存储空间Ap中找到对应的权值参数,做求和得到最终的网络输出。,重点(zhngdin):两个映射第一次映射:U-Ac第二次映射:Ac-Ap,第四页,共二十一页。,02,CMAC网络(wnglu)的结构模型与工作原理,映射(yngsh)映射法则可以根据实际情况选取,只需要满足一下规则即可。输入空间邻近两点(一点为一个n维输入向量),在A

3、c中有b个重叠单元被激励。距离越近,重叠越多;距离远的点,在Ac中不重叠,第五页,共二十一页。,02,CMAC网络(wnglu)的结构模型与工作原理,量化 一般来说,实际应用时输入向量的各分量来自不同的传感器,其值多为模拟量,而Ac中每个元素只取0或1两种值。为使输入空间的点映射到虚拟联想(linxing)空间Ac的离散点,必须先将模拟量U量化,使其成为输入空间的离散点。,量化等级 设输入向量U在量化的过程中,每一个(y)分量可被量化成个等级,则个分量可组合为 个输入状态。每一种状态对应于Ac中的c个存储单元,相邻输入在Ac中有b个单元重复,故Ac中存储单元的总数为+(1)()。,第六页,共二

4、十一页。,02,CMAC网络(wnglu)的结构模型与工作原理,例.量化等级100,输入有10个分量,每一状态(zhungti)对应Ac中的6个存储单元,相邻输入在Ac中有5个单元重复,Ac与Ap一一对应。实际物理存储空间Ap有6+(100 10 1)个存储单元。但实际的学习问题并不会包括所有的学习空间的状态。,哈希映射 哈希映射是压缩稀疏矩阵的一个常用技术。当在一个大的存储区域(qy)稀疏地存储一些数据时,可以通过哈希映射将其压缩到小的存储位置,例:除留余数法:yf(x)xk(k决定了压缩率),第七页,共二十一页。,02,CMAC网络(wnglu)的结构模型与工作原理,实际映射 AcAp 这

5、个过程最简单的实现(shxin)方法就是线性一一映射。,输出(shch):,其中,代入,可得:,?,第八页,共二十一页。,02,CMAC网络(wnglu)的结构模型与工作原理,权值调整(tiozhng),给定(i dn)输入/输出样本对:,权值调整指标:,误差平均分配:,第九页,共二十一页。,02,CMAC网络(wnglu)的结构模型与工作原理,权值调整(tiozhng),经过数次迭代后,最初的存储单元已经包含了一些先前学习的知识(zh shi)。每一个存储单元学习的历史不同,所以这些存储单元也不应有相同的可信度。无视这些差异,所有被激活的存储单元都获得相同的校正误差,那么那些由未学习状态产生

6、的误差将对先前学习的信息产生“腐蚀”。,=()+1 1=1()+1 1(),基于信度分配的CMAC(CA-CMAC)神经网络,()是第个存储单元的学习次数,是某状态激活的存储单元数。,第十页,共二十一页。,03,仿真(fn zhn)实例,用CMAC逼近(bjn)sin函数,采用一维输入一维输出结构的CMAC逼近sin采用c=6,邻近两点重叠单元b=5采用线性化函数实现U-Ac的虚拟(xn)映射s(k)=round(u(k)-xmin)/(xmax-xmin)*M)采用一一映射的方式实现Ac-Ap的实际映射,输入训练样本:train_in=0:36:324共10个样本,第十一页,共二十一页。,0

7、3,仿真(fn zhn)实例,量化等级(dngj):40训练样本个数:10学习率:1,第十二页,共二十一页。,03,仿真(fn zhn)实例,第十三页,共二十一页。,03,仿真(fn zhn)实例,第十四页,共二十一页。,03,仿真(fn zhn)实例,第十五页,共二十一页。,03,仿真(fn zhn)实例,第十六页,共二十一页。,03,仿真(fn zhn)实例,第十七页,共二十一页。,03,仿真(fn zhn)实例,第十八页,共二十一页。,04,总结(zngji),网络非线性:CMAC的每个神经元的输入输出是一种线性关系,但其总体上可看做一种表达非线性映射的表格系统。学习速度快:每次修正的权

8、值少,在保证函数非线性逼近性能的前提下,学习速度快,适合于实时(sh sh)控制;局部泛化能力:相近输入产生相近输出,不同输入给出不同输出,避免了BP网络的局部最优问题;,第十九页,共二十一页。,谢谢(xi xie),第二十页,共二十一页。,内容(nirng)总结,小脑模型神经网络(CMAC)。1975,J.S.Albus 小脑模型神经网络。局部逼近神经网络:网络输入空间的某个局部区域只有(zhyu)少数几个连接权影响网络输出。输入空间邻近两点(一点为一个n维输入向量),在Ac中有b个重叠单元被激励。当在一个大的存储区域稀疏地存储一些数据时,可以通过哈希映射将其压缩到小的存储位置。经过数次迭代后,最初的存储单元已经包含了一些先前学习的知识。采用c=6,邻近两点重叠单元b=5。谢谢,第二十一页,共二十一页。,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 专业资料 > 医药卫生

copyright@ 2008-2023 wnwk.com网站版权所有

经营许可证编号:浙ICP备2024059924号-2