报告华体会网页版登陆入口:4月21号上午9:30-11:30
报告地点:中南大学计算机楼313报告厅
报告一
题目:大模型的责任与挑战
报告简介:人工智能技术的最新突破使得AI在各个领域的表现达到了人类水平,但这也引发了人们对其可能对社会产生的影响的担忧。为此,在微软亚洲研究院,我们开展了多项研究项目,旨在使大模型更加负责任,并解决其隐私保护、价值观和可解释性等问题。在本次报告中,我们将深入探讨大模型所面临的责任和挑战,并介绍我们正在开发更加负责任的人工智能技术的努力。同时,我们还将探讨未来研究的潜在方向,以提升人工智能技术的可持续性和社会责任。
报告人简介:
谢幸博士2001年7月加入微软亚洲研究院,现任首席研究员,并兼任中国科学技术大学博士生导师。他的研究团队在数据挖掘、社会计算和负责任人工智能等领域展开创新性的研究。迄今为止,他已发表了300余篇学术论文,被引用40000余次,H指数为99。他获得了首届微软学者奖(1999年)、ACM SIGSPATIAL十年影响力论文奖(2019年)、中国计算机学会青竹奖(2019年)、ACM SIGSPATIAL十年影响力论文荣誉奖(2020年)、ACM SIGKDD China华体会网页版登陆入口检验论文奖(2021年)以及ACM SIGKDD华体会网页版登陆入口检验论文奖(2022年),并在KDD、ICDM等会议上获得过多次最佳论文奖。他是中国计算机学会会士、IEEE会士以及ACM杰出会员。
报告二
题目:深度表征学习在Xbox游戏推荐系统中的应用和挑战
报告简介:表征学习旨在从复杂的原始数据中自动提取出有效且精简的特征,用于解决实际任务或者支持下游机器学习模型的训练。表征学习在推荐系统中有着广泛的应用,例如,基于表征学习的协同过滤模型以用户-物品形成的二部图作为原始数据,学习用户和物品的嵌入表示用来做推荐或者分类任务。本次报告结合Xbox游戏推荐中的实际场景,介绍我们发表在WebConf 2023的两个工作,分别对应深度表征学习应用中的两个挑战:可扩展性和可解释性。
首先,我们发现图神经网络(GNN)在学习大规模表征时仍存在着诸多缺陷,例如多跳信息传播带来的过平滑与可拓展性问题;每个节点都会分配一个可学习的向量,导致模型整体的参数量过高,难以支持大规模训练等。为了克服这些问题,我们提出了一种新的GNN模型:xGCN。xGCN将节点ID嵌入向量表视为静态特征而不是需要梯度训练的参数,并使用无监督的传播过程和一个由MLP构成的“提炼网络”来不断迭代地更新嵌入向量。xGCN能够显著减少模型参数数量、加速模型训练,同时在社交推荐任务上达到了更好的预测准确率。另一方面,深度表征学习模型往往是不可解释的,但提高模型的可解释性有增强推荐结果的说服力,提升用户的信任和满意度等优点。为此,我们提出了一种可解释性协同过滤框架ECF,旨在从用户的群体行为中挖掘出一些可解读的兴趣簇,通过学习用户/物品到兴趣簇的稀疏映射,从而够利用兴趣簇的标签及用户-兴趣簇-物品的路径实现可解释推荐。为了学习到高质量的兴趣簇,我们从语义相似性、标签相似性及独立性三个方面设计了不同的损失函数对模型进行端到端的优化。ECF有着广泛的应用场景,例如用户标签生成、可解释召回、带有主题的相似物品列表推荐、定向广告中的相似人群模型等。
报告人简介:
练建勋博士,微软亚洲研究院主管研究员,2018年毕业于中国科学技术大学,获计算机应用技术博士学位。他的研究方向包括用户建模和推荐系统。他在多个国际顶会,包括KDD, IJCAI, WWW, SIGIR ,CIKM和WSDM等上发表了20余篇论文,并且将相关的研究成果应用在了必应广告、Xbox游戏和微软新闻等多个实际推荐应用场景上,获得了显著的关键指标提升。 他也是微软推荐系统开源库Microsoft Recommender的主要贡献者之一。