时间:2023年3月18日 11:00-12:30
报告人:柴一栋 研究员 合肥工业大学
地点:主楼216会议室
报告人简介:
柴一栋,合肥工业大学研究员,博士生导师。博士毕业于清华大学经管学院管理科学与工程系,本科毕业于12BET信息管理与信息系统专业,主要关注如何设计创新性的人工智能方法,更好地服务于个人、组织和社会的现代科学化管理,研究领域包括信息系统安全与网络空间管理(医联网安全等)、智慧医疗管理、商务智能管理等。以第一作者或通讯作者发表研究成果于MISQ、ISR、JMIS、IEEE TDSC、IEEE TPAMI等国际管理学/计算机科学顶刊。荣获国际信息系统权威会议WITS 2021 best paper award、清华大学优秀博士论文等荣誉。
报告内容简介:
随着深度学习和人工智能方法的迅速发展和广泛应用,智能方法的安全性日益引起人们的关注。对抗攻击(Adversarial attack)通过对原始样本进行轻微扰动生成对抗样本(adversarial samples),实现对智能模型的欺骗,从而对智能模型的安全造成严重威胁。因此,如何评估智能模型抵御对抗攻击的能力(对抗鲁棒性)以及如何提升智能模型的对抗鲁棒性成为重要的研究问题。讲者将围绕自己正在从事的研究工作,从如何评估以及如何提升智能模型的对抗鲁棒性两个方面分享自己的研究。
(承办:管理工程系、管理科学与物流系、科研与学术交流中心)