科研动态

Dynamics

首页 >  科研动态 > 新闻  >  详情

青年学术论坛第11期:基于信息瓶颈的深度学习可解释性算法和应用 | 活动预告

「AI青年学术论坛」由上海人工智能实验室主办,本期活动由将门-TechBeat人工智能社区协办。论坛将不定期邀请全球顶尖AI青年学者分享代表性工作。

北京时间11月3日(周三)晚8点美国莱斯大学副教授、AIPOW联合创始人兼首席科学家胡侠将带来主题为《基于信息瓶颈的深度学习可解释性算法和应用》的报告,和参会者讨论一种新的训练方法以使DNN的解释规范化。



【活动详情】:

分享主题:基于信息瓶颈的深度学习可解释性算法和应用

分享嘉宾:美国莱斯大学副教授、AIPOW联合创始人兼首席科学家 胡侠

活动时间:北京时间 11月3日 (周三)20:00-21:00

活动地点:

1. 腾讯会:https://meeting.tencent.com/dm/BskZmo5BnBYW    会议 ID:906 475 770

2. B站:http://live.bilibili.com/22183939



【讲座介绍】:

虽然深度神经网络(DNN)在许多下游应用中表现卓越,但亦因其缺乏可解释性而经常被视为“黑盒子”。正是由于DNN模型无法详细地解释预测是如何建立的,所以其透明度受到了限制,很难在使用者间建立信任。

在本次讲座中,分享嘉宾将从建模和应用的角度提出一个生成DNN可解释性的系统框架,旨在解决可解释性机器学习中的两大主要技术挑战:

可靠性(faithfulness)和可理解性(understandability)。

具体来说,为了保证事后解释的可靠性,嘉宾将介绍如何利用特性反演(feature inversion)和加性分解(additive decomposition)技术来解释两种经典的DNN体系结构:卷积神经网络和递归神经网络的预测。此外,为了开发出更易于理解的解释型DNN模型,嘉宾将提出一种新的训练方法使DNN的解释规范化。



【嘉宾介绍】:

侠博士现任美国莱斯大学副教授,AIPOW联合创始人兼首席科学家。长期从事数据挖掘、机器学习和人工智能研究,在包括ICLR、 NeurIPS、KDD、WWW、SIGIR等在内的相关顶级国际会议及期刊发表论文100余篇,他引超过1万次。其主导开发的开源系统AutoKeras成为最常用的自动机器学习框架之一(超过8000次star及1000次fork);其开发的NCF算法及系统(单篇论文他引2500余次)成为主流人工智能框架TensorFlow的官方推荐系统;其主导开发的异常检测系统在通用、Trane、苹果等公司的产品中得到广泛应用。

他曾获包括WWW、WSDM及INFORM等顶级会议最佳论文(提名),美国国家科学基金会杰出青年奖、IEEE Atluri学者奖、亚利桑那州立大学校长奖等奖项,现担任ACM TIST、Big Data副主编及DMKD编委,曾担任信息检索领域顶级国际会议WSDM 2020大会主席。

他的研究工作曾被包括MIT Technology Review、ACM TechNews、 New Scientist、Defense One在内的国际媒体广泛报道。

个人主页:https://cs.rice.edu/~xh37/index.html



comm@pjlab.org.cn

上海市徐汇区云锦路701号西岸国际人工智能中心37-38层

沪ICP备2021009351号-1