王希廷: Model Interpretation and Alignment
发布日期:2023-06-13  字号:   【打印

报告时间:2023年6月14日(星期三) 10:00

报告地点:翡翠科教楼A座805室

:王希廷 高级研究员

工作单位:微软亚洲研究院

举办单位:计算机与信息学院

报告简介

模型时代,可解释和模型对齐变得至关重要。大模型对人的工作生活影响越来越大,但却更加难以理解和控制。OpenAI对外支持的七大研究方向中,可解释和模型对齐就是其中两个。我们应该怎么让深度学习模型变得更透明、可理解、更容易训练、调试和优化,确保它和人类意图对齐呢?这次报告将围绕这些问题进行探讨,介绍我们近期发表在ICML、NeurIPS、KDD的可解释人工智能(XAI)以及利用强化学习从人类反馈学习(RLHF)的方法。

报告人简介

王希廷,MSRA社会计算组高级研究员,研究兴趣为可解释、负责任的人工智能。发表论文50多篇,其中CCF-A类论文40篇。两篇论文被CCF-A类期刊IEEE TVCG评选为封面论文。H-Index为24,谷歌学术引用2300多。相关科研成果落地全球占有量第二的必应搜索引擎。被邀请担任IJCAI、AAAI领域主席,加入IEEE VIS组委会担任档案主席,被评为AAAI 2021 杰出高级程序委员。两次受邀在SIGIR可解释推荐研讨会上发表主旨演讲,是CCF和IEEE高级会员。

点击排行榜