重庆大学廖晓峰教授做客“名师讲堂”谈大数据的分布式机器学习方法

文:人力资源部教师发展中心、自动化学院 / 来源:自动化学院 党委教师工作部、人力资源部 / 2021-04-29 / 点击量:492

  4月28日上午,由人力资源部教师发展中心主办、自动化工程学院承办的“名师讲堂”邀请到重庆大学信息学部副主任,计算机学院院长教授、IEEE Fellow、国家级人才廖晓峰教授来校交流,为师生带来题为“大数据的分布式机器学习方法”的学术报告。我校近50名师生参与交流研讨。报告由自动化工程学院李铁山教授主持。

名师讲堂 (1).png

  廖晓峰教授提出人工智能和大数据时代,解决最有挑战性问题的主流方案是分布式优化。以机器学习为例,分布式优化可以应用于利用多个服务器来优化一个神经网络,其中数据集分布在不同的服务器上,因此每台服务器只能获得一个局部的损失函数。优化算法需要服务器间不断的交换信息。为此,廖晓峰教授带领团队对分布式优化算法进行了相应研究。廖晓峰教授全面介绍了分布式机器学习的现状,深入讨论分布式优化算法的核心优势,进一步介绍作者在该方向的一些工作,并且讨论该领域未来的发展方向。

  廖晓峰教授提出,机器学习火起来的三大要素是数据、计算力、算法。当我们给出越多的训练数据时,各种算法的性能都会越高。但是各个算法之间有所区别。对于传统的机器学习算法,最开始它的性能也在提升,而后期无论怎么添加训练数据它的性能都不再提升了;而对于小型神经网络,它的性能是会随着数据量不断提升的,但是提升的幅度不大。深度学习领域的进步主要靠不断增长的训练数据量以及不断增长的计算力。在大数据时代,机器学习依旧成为了研究热点,但机器学习对大数据的处理面临着两个挑战:数据量大导致计算困难;分布在不同服务器上的数据存在一定联系,传统的模型和算法很难适应。因此大数据时代的分布式机器学习算法显现出优势。

名师讲堂.png

  廖晓峰教授指出了分布式优化的优点,主要包括:加速优化过程,将机器学习领域的优化问题能转换为最优化问题模型;克服环境制约;降低资源消耗,大量冗余节点使得系统有较强的容错性。为此,廖晓峰教授团队围绕性能评估、应用行为、神经动力学算法应用于解决压缩感知稀疏信号重构、图像重构等方面进行了相应研究。

  针对目前该方向的发展前景,廖晓峰教授结合实际应用提出了自己的见解。他总结道,大数据时代的分布式机器学习方法,具有可扩展性,收敛速度快,鲁棒性强,功耗低的优点,团队未来将对高性能算法、数据隐私安全、异步更新随机梯度模型等方面展开研究。

  在提问与交流环节中,与会师生在人工智能和大数据及其应用方面与廖晓峰教授展开讨论交流。参会师生通过此次学习交流,拓宽了视野,提升了思路,对学科未来的发展有了更进一步的认识。 

  本次名师讲堂由人力资源部教师发展中心主办,自动化工程学院承办。


  相关链接:

  廖晓峰教授,重庆大学新学部副主任、计算机学院院长、教育部“信息物理社会可信服务计算”重点实验室主任,IEEE Fellow、新世纪百千万国家级人才、教育部新世纪优秀人才、重庆市“322”人才工程一层次人才、重庆市学术技术带头人、享受国务院政府特殊津贴的专家、全国优秀博士后,获教育部和重庆市自然科学奖励7项、授权专利6项、出版专著五部,近几年来完成国家及省部级科研项目近30项,担任了10余个国际会议的主席和程序委员会会员,是《IEEE Transactions on Cybernetics 》《IEEE Transactions on Neural Networks and Learning Systems》等国际刊物的副编辑和30余个国际一流刊物的特邀审稿人,长期从事人工神经网络的动力学系统理论、混沌密码学、云安全与大数据隐私保护等研究,近三十年来发表刊物论文400余篇,其中在国际重要刊物,SCI他引近2万次,目前H指数为78(Google Scholar),连续6年入选Elsevier中国计算机学科高被引学者榜单,根据国际guide2Reseach每年发布的《Top Scientists Ranking for Computer Science & Electronics》排名榜单对全球的计算机科学和电子学家一千名顶级计算机和电子科学家的排名中廖晓峰教授全球排名683位。



编辑:庄志东  / 审核:林坤  / 发布者:林坤