您所在的位置: 首页开放交流最新动态 → 正文

我校刘双龙教授最新成果在人工智能领域顶级期刊TNNLS发表

作者:陈涛时间:2021-03-15 18:26浏览次数:

近日,我校物理与电子科学学院刘双龙教授在人工智能硬件加速器研究领域取得重要进展,并在人工智能领域顶级刊物、校定SCI-TOP期刊IEEE Transactions on Neural Networks and Learning Systems (TNNLS) 上发表了题为 Toward Full-Stack Acceleration of Deep Convolutional Neural Networks on FPGAs”的研究论文。

 

随着大数据和云计算技术的发展,以卷积神经网络为代表的人工智能方法在网络结构上也更新得越来越快,其总体趋势向着更深、更复杂的网络拓扑结构演变,从而对计算力的需求也越来越高,使得人工智能算法在面向边缘计算时受到限制。针对该问题,论文提出一种基于FPGA的神经网络系统的硬件计算架构,该架构适用于包含卷积层、反卷积层等计算层在内的卷积网络、以及规则、不规则(残差连接、拼接连接等)的网络拓扑结构,从而能够在目前主流的几类网络模型上如VGG16ResNetYOLOv3等取得非常高的计算力和计算效率。

 

论文设计的卷积神经网络的全栈式加速系统

 

刘双龙教授为该论文的第一作者和唯一通讯作者,我校为论文的第一完成单位,合作单位包括英国帝国理工学院、深圳鲲云信息科技有限公司和天地一体化信息技术国家重点实验室等。该项工作得到国家自然科学基金项目的资助。刘双龙教授于2020年从海外回国加盟我校,受聘为“潇湘学者”特聘教授,近年来在人工智能芯片设计、卷积神经网络的硬件加速和高性能的可重构计算系统等方面取得了一系列高水平成果,迄今已在TNNLSIEEE Trans. On ComputersACM Trans. on Reconfigurable Technology and Systems (TRETS)FPGAFCCMDATE等权威刊物和顶级会议上发表学术论文30余篇。

 

论文链接:

https://ieeexplore.ieee.org/document/9354062

 

上一条:中国科学院大学田雨教授、北京师范大学张宏宝副教授做客量子论坛

下一条:曾松军教授课题组最新研究成果在ACS Nano上发表

关闭