(供稿 物电院)近日,我校物理与电子科学学院刘双龙教授在人工智能硬件加速器研究领域取得重要进展,并在人工智能领域顶级刊物、校定SCI-TOP期刊IEEE Transactions on Neural Networks and Learning Systems (TNNLS)上发表了题为“Toward Full-Stack Acceleration of Deep Convolutional Neural Networks on FPGAs”的研究论文。
随着大数据和云计算技术的发展,以卷积神经网络为代表的人工智能方法在网络结构上也更新得越来越快,其总体趋势向着更深、更复杂的网络拓扑结构演变,从而对计算力的需求也越来越高,使得人工智能算法在面向边缘计算时受到限制。针对该问题,论文提出一种基于FPGA的神经网络系统的硬件计算架构,该架构适用于包含卷积层、反卷积层等计算层在内的卷积网络、以及规则、不规则(残差连接、拼接连接等)的网络拓扑结构,从而能够在目前主流的几类网络模型上如VGG16、ResNet、YOLOv3等取得非常高的计算力和计算效率。
论文设计的卷积神经网络的全栈式加速系统
刘双龙教授为该论文的第一作者和唯一通讯作者,我校为论文的第一完成单位,合作单位包括英国帝国理工学院、深圳鲲云信息科技有限公司和天地一体化信息技术国家重点实验室等。该项工作得到国家自然科学基金项目的资助。刘双龙教授于2020年从海外回国加盟我校,受聘为“潇湘学者”特聘教授,近年来在人工智能芯片设计、卷积神经网络的硬件加速和高性能的可重构计算系统等方面取得了一系列高水平成果,迄今已在TNNLS、IEEE Trans. On Computers、ACM Trans. on Reconfigurable Technology and Systems (TRETS)、FPGA、FCCM、DATE等权威刊物和顶级会议上发表学术论文30余篇。
论文链接:https://ieeexplore.ieee.org/document/9354062
编辑:廖依扬