报告题目:高效神经架构搜索技术:探索、应用及展望
报告人:温世平 教授
报告时间:2023年6月20日(周二)14:40
报告地点:腾讯会议:918-314-319
报告对象:感兴趣的教师、研究生等
主办单位:黄金城集团官网
报告人简介:
温世平,悉尼科技大学信息工程学院、澳大利亚人工智能研究所教授,博士生导师。于2013年在华中科技大学获工学博士学位。主要研究方向包括神经网络、忆阻系统、深度学习、智能控制等。先后发表SCI收录论文200余篇,包括IEEE Transactions论文100余篇;Google Scholar引用8000余次;于2015年获中国人工智能学会优秀博士学位论文奖,2017年获亚太神经网络联合会青年杰出研究奖,2018年、2020年入选科睿唯安全球高被引学者(Clarivate Analytics Highly Cited Researchers),2020-2022年入选斯坦福大学发布的全球前2%顶尖科学家名单; 2019年入选四川省特聘专家,2022年入选英国计算机学会会士(BCS Fellow)、英国物理学会会士(IOP Fellow)。先后主持悉尼科技大学种子基金,Global Pay, 华为公司,深圳市科创委,航天科工集团等单位科研项目,参与科研基金及企业横向项目多项。担任SCI期刊Knowledge-Based Systems,Neural Networks, Engineering Applications of AI, Computers and Electrical Engineering, Neural Processing Letters等副编。曾担任多个SCI期刊的客座主编,如IEEE Transactions on Network Science and Engineering, Sustainable Cities and Society, Environmental Research Letters等。
报告内容:
目前深度神经网络的人工设计在架构和结构超参调节方面需要耗费巨大的工作量,并且针对特定任务的表现优异的模型结构设计很大程度上依赖于专家的经验和灵感。近年来,神经结构搜索(neural architecture search, NAS)已经成为一种有效的自动机器学习方法,通过自动搜索针对特定任务的优秀架构,将专家从繁琐的工作中解放出来。然而,目前的神经结构搜索方法大多聚焦于图像分类等基础任务,我们在人像/人脸解析(Portrait/Face Parsing)和表情识别(Facial Expression Recognition)领域,利用NAS技术做了新的尝试。所提出的NAS方法综合考虑了模型运行效率指标(Parameters,FLOPs, Latency)和搜索效率,且兼顾了模型效率和精度表现之间的平衡,最终获得了一系列高效、紧凑的Pareto-optimal神经网络架构,显著超越了当前人工设计的SOTA网络。资源受限情况下的神经网络架构搜索将更加易于获得面向边缘计算设备和终端嵌入式设备部署场景的网络结构,从而利于智能应用的落地,推动边缘计算领域的发展。未来,我们将依托NAS技术,在面向基于忆阻器的神经形态计算的网络架构设计领域做进一步的探索。
欢迎全校师生踊跃参加!