学术动态
当前位置: 必威 > 必威栏目 > 学术动态 > 正文

我院论坛[2021第3期]:华南理工大学陈俊龙教授学术报告会

编辑:朱亚玲时间:2021-03-19点击数:

报告时间:322日(星期一)14:30

报告地点:信息楼必威310报告厅

人:陈俊龙,华南理工大学(South China University of Technology)教授

报告题目:动态结构的神经网络:构建叠层宽度神经网络成深度模型

内容简介:深层的网络结构能够使网络具有强大的学习能力,然而传统的深度结构网络参数量大,网络复杂性高,大多数深度网络的训练方式也是基于反向传播的梯度下降法或随机梯度下降法,往往存在着训练消耗时间长、容易陷入局部最优解等问题;宽度学习系统 (Broad Learning Systems BLS) 是一种浅层的具有增量学习能力的神经网络,具有快速、高效的优点,然而其浅层结构也限制了网络的特征表达能力。为了解决上述问题,本汇报提出了一种具有动态结构的神经网络:构建叠层宽度神经网络成深度模型。该模型保留了宽度学习系统高效、快速的优点,同时通过残差连接将多个宽度学习系统模块叠加起来,增加网络的深度,提高网络的学习能力。叠层宽度神经网络(Stacked BLS)的“动态”体现在宽度和深度两个方面。宽度方向的增量学习体现在宽度学习系统模块内部的神经元:在每一个宽度学习系统模块内部,当新增加特征节点、增强节点或输入数据时,只需要学习新增加部分的权重即可;深度方向的增量学习体现在宽度学习系统模块之间:在宽度学习系统模块之,当叠加新的宽度学习系统模块时,下层模块的参数可以固定不变,只需要计算新叠加的宽度学习系统模块的网络参数即可。这两种增量学习的方式使得模型的计算量较少,网络复杂性较低,使用过程中可以很方便的增加网络的宽度和深度,并实现快速、高效的训练,能够针对不同任务进行适应性的调整,提高模型的泛化能力。叠层宽度神经网络在多个数据集上展现了优越性,在多个图像数据库的测试,均优于现有的很多图像分类方法,同时相较于深度神经网络方法,动态结构的神经网络大幅减少了网络计算时所需要的参数数量。

报告人简介陈俊龙 C. L. Philip Chen),欧洲科学院院士、欧洲科学与艺术院院士、IEEE/AAAS/IAPR/CAA Fellow。陈教授是华南理工大学计算机学院院长、讲座教授、澳门大学讲座教授及科技学院前院长、中国自动化学会副理事长、科睿维安全球高被引科学家,美国工学技术教育认证会评审委员、IEEE Transactions on Cybernetics顶级期刊主编、曾任IEEE Trans. on SystemsMan, and Cybernetics: Systems期刊主编。科研方向为智能系统与控制、计算智能等。曾获IEEE系统科学控制论最高学术维纳奖 (Norbert Wiener Award)3次澳门自然科学奖、广东省科学技术一等奖、2IEEE Transactions on Neural Networks and Learning Systems年度期刊最佳年度论文奖。陈教授的科研支持及成果包括科技部重点研发项目(首席)、国家基金委重点项目在人工智能方向的科研、以及多项广东省、广州市、澳门科技基金委的资助。澳门大学工程学科及计算机工程获国际《华盛顿协议》、《首尔协议认证》,是他对澳门工程教育的至高贡献。

 

版权所有 Copyright 必威·(BETWAY)官方网站      地址:湖北省武汉市洪山区鲁磨路388号      邮编:430074