题名面向视觉注意力模型的定点量化加速算法研究
作者李哲鑫
答辩日期2022-05-20
文献子类硕士
授予单位中国科学院自动化研究所
授予地点中国科学院自动化研究所
导师程健
关键词定点量化 模型压缩 模型加速 视觉注意力模型 混合精度
学位专业模式识别与智能系统
英文摘要
近年来,基于注意力机制的深度神经网络在计算机视觉、自然语言处理、语音识别、多模态识别等多个领域取得了巨大的成功,甚至在某些任务上展现出了远超传统神经网络的性能。在视觉任务中,视觉注意力模型正在代替卷积神经网络成为学界和业界的主要研究对象。然而,相比于传统卷积神经网络,视觉注意
力模型由于其与输入尺度呈平方级增长的计算量,往往在无法一些高分辨率或者密集预测的视觉任务中实际运用,设计可以高效计算的视觉注意力模型已成为了一个重要的研究方向。本文针对视觉注意力模型的定点量化加速问题,在离线量化、量化训练以及混合精度量化三个方向做了探索。本文的主要贡献如下:
针对视觉注意力模型快速量化部署的需求,提出了一种基于最小化量化误差的离线量化策略,使用均方误差建模量化误差,并运用迭代法求解该优化问题。通过这种量化方式可以快速而准确地求得最优的量化步长,量化得到的8比特模型在 ImagetNet 上的性能超越了之前的视觉注意力模型离线量化的工作。
尽管上述离线量化算法的部署时间较短,但其在低比特量化下会引入较大的量化误差。针对这个问题,本文进一步提出了一种基于可微量化参数的量化训练方法以提高视觉注意力模型在低比特位下的精度表现。该方法在 ImageNet 数据集上实现了 4 比特量化的视觉注意力模型精度损失都在 0.5% 内。
以上统一比特位的量化方法对比特位的利用不够充分,导致视觉注意力模型在极低比特下的量化仍存在性能瓶颈。针对这个问题,本文提出了一种基于可微比特位宽的混合精度量化方法,利用 STE 实现比特位宽和量化步长的联合训练,并且提出了可变量化步长以解决联合训练过程中的不稳定问题,还针对视觉注意力模型的多注意力通道机制提出了一种基于通道感知的比特位宽策略,进一步地提升了在低比特下的精度,在 ImageNet 上实现了3比特量化下精度损失在可接受的范围内,超越了先前性能最好的统一量化工作。
语种中文
页码66
内容类型学位论文
源URL[http://ir.ia.ac.cn/handle/173211/48695]  
专题类脑芯片与系统研究
推荐引用方式
GB/T 7714
李哲鑫. 面向视觉注意力模型的定点量化加速算法研究[D]. 中国科学院自动化研究所. 中国科学院自动化研究所. 2022.
个性服务
查看访问统计
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。


©版权所有 ©2017 CSpace - Powered by CSpace