elementnameelementnameelementname -->
注册登录 > 学术信息 > 正文

学术信息

马萨诸塞大学洛厄尔分校Yimin Chen博士学术报告

来源: 点击: 华体会网页版登陆入口:2024年01月02日 08:10


报告人:Dr. Yimin Chen

报告地点:校本部管理楼304

报告华体会网页版登陆入口:202315日下午14:00-16:00

报告题目: Defending AI Models from Adversarial Attacks through Detection in Data Space

个人简介:Dr. Chen现为University of Massachusetts Lowell计算机与信息科学学院助理教授。2018年获Arizona State University博士学位。当前主要研究方向是机器学习安全和隐私,攻击类型包括adversarial example attackbackdoor attackpoisoning attackmembership inference attack等,应用场景涉及联邦学习、对比学习、大语言模型和自动驾驶模型。专注于为实际应用中的机器学习模型提供有效可靠的防御系统。其诸多研究成果发表于安全顶会(IEEE Security and Privacy/ACM CCS/ NDSS)和计算机网络顶会(IEEE MobiCOM/INFOCOM)。

摘要:伴随着人工智能模型在不同领域的广泛应用,模型的安全和鲁棒性正在变得越来越重要。当前针对人工智能模型的攻击包括了模型训练阶段的poisoning attackbackdoor attack以及模型部署阶段的adversarial example attackmembership inference attack等等。LLMAIGC正在极大地扩展人工智能的应用场景,不断上升的模型复杂度也使得模型存在更多的潜在漏洞。在这样的背景下,成本可控且具备一定通用性的防御系统显得更加重要。在这次报告中,我们将介绍团队在通用性人工智能模型防御机制的两项工作,即MANDAFLARE。我们将着重讲述如何通过对比样本在数据空间和表征空间的不同行为来检测潜在攻击样本,从而使得相应的防御系统在可控成本的前提下,对基于不同机制设计的攻击方法都获得高的检测准确率。

地址:湖南省长沙市岳麓区中南大学信息楼 联系方式:0731-88836659

Copyright ® 2017-2019 华体会网页版登陆入口 All Rights Reserved.