题名 | 脑启发的深度神经网络自动演化 |
作者 | 陈智强 |
答辩日期 | 2020-11 |
文献子类 | 博士 |
授予单位 | 中国科学院自动化研究所 |
授予地点 | 中国科学院自动化研究所 |
导师 | 何晖光 |
关键词 | 脑启发,深度神经网络,动态类别聚类,压缩与结构塑形,旋转群同构 卷积 |
学位名称 | 工学博士 |
学位专业 | 模式识别与智能系统 |
英文摘要 | 在深度神经网络的设计当中,有许多特性在一定程度上借鉴了大脑的结构 和机制,如层次化的结构、注意力机制等。本研究探索进一步从大脑的动态认知 和发育特性中寻找启发,通过借鉴包括认知中的概念层次化和恒常性、发育中的 突触修剪和结构调整来进一步提升深度神经网络的性能和效率。本研究对深度 神经网络的改进从宏观的类别标签,再到介观的网络结构,最后到微观的卷积 核,不断深入到网络更加底层和核心的机制。具体内容以及创新点归纳如下: (1)受大脑认知概念层次化的启发,本研究提出了一种深度神经网络动态类 别层次化聚类方法。在深度神经网络的训练过程中,令网络自动判断类别之间的 相似性,并将相似的类别进行聚类,从而将单一的类别转化为具有层次结构的类 别。利用层次化类别来提升网络的性能。此方法能够完全自动的生成层次化类 别,无需额外的人工标注,因此可以方便地应用到现有的单标签数据集。 (2)受大脑发育过程中突触修剪的启发,本研究提出了一种深度神经网络动 态压缩方法。不同于现有的许多方法从预先训练好的模型中进行裁剪,此方法模 仿大脑青春期的突触裁剪,在训练过程中(训练的早期)对网络通道进行动态裁 剪,因此不需要反复的剪枝和微调过程。不同于以往间接的经验的准则,本研究 通过对通道随机屏蔽时网络的条件精度变化来评估每个通道的重要性,从而获 得跟最终性能直接相关的准则。在多个数据集上的实验表明,通过所提出的动态 压缩演化方法,网络能够在性能得到保持的情况下得到有效的压缩。 (3)受大脑结构发育特性启发,本研究提出了一种深度神经网络结构动态塑 形方法。本研究定义了一个与任务和设备相关的信息密度来驱使网络结构动态 地降低信息密度最低部分的规模,并通过贪心的策略不断对网络结构进行塑形, 从而得到一个更适应目标任务和设备的网络。在理论上,本研究证明了贪心的策 略在理想情况下可以找到给定框架下的最优结构。在实践上,本方法通过训练过 程中的动态调整,无需反复训练不同的网络,因此与基于搜索的神经网络结构自 动生成方法相比,该方法不需要大量计算资源,并且可以获得相当甚至更好性能 的网络结构。 (4)受大脑方向恒常的认知特性启发,本研究引入旋转群同构卷积来获得更高程度的参数共享,从而压缩网络并提升其性能。具体的,同一个卷积核被旋转 到不同的方向来提取多个通道的特征,因此不同的通道可以共享参数。在旋转维 度上,本研究构造了一个非极大值抑制损失来提高不同方向特征的正交性和特 异性。为了方便对卷积核进行旋转,本研究还提出了一种可以使用任意形状卷积 核的卷积方法。考虑到浅层特征能够更多的受益于旋转对称性(如边缘),本研 究仅将现有网络结构的浅层替换为旋转群同构卷积。多个数据集和多种网络结 构上的实验证明,本方法能够在不增加额外计算开销且大大减少浅层参数(减少 75%、87.5%)的情况下,得到更好的性能。 |
语种 | 中文 |
学科主题 | 计算机科学技术 ; 人工智能 |
页码 | 114 |
DOI标识 | 无 |
URL标识 | 查看原文 |
内容类型 | 学位论文 |
源URL | [http://ir.ia.ac.cn/handle/173211/42213] |
专题 | 类脑智能研究中心_神经计算及脑机交互 |
通讯作者 | 陈智强 |
推荐引用方式 GB/T 7714 | 陈智强. 脑启发的深度神经网络自动演化[D]. 中国科学院自动化研究所. 中国科学院自动化研究所. 2020. |
个性服务 |
查看访问统计 |
相关权益政策 |
暂无数据 |
收藏/分享 |
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。
修改评论