北京时间11月3日(周三)晚8点,美国莱斯大学副教授、AIPOW联合创始人兼首席科学家胡侠将带来主题为《基于信息瓶颈的深度学习可解释性算法和应用》的报告,和参会者讨论一种新的训练方法以使DNN的解释规范化。
【活动详情】:
分享主题:基于信息瓶颈的深度学习可解释性算法和应用
分享嘉宾:美国莱斯大学副教授、AIPOW联合创始人兼首席科学家 胡侠
活动时间:北京时间 11月3日 (周三)20:00-21:00
活动地点:
1. 腾讯会议:https://meeting.tencent.com/dm/BskZmo5BnBYW 会议 ID:906 475 770
2. B站:http://live.bilibili.com/22183939
【讲座介绍】:
虽然深度神经网络(DNN)在许多下游应用中表现卓越,但亦因其缺乏可解释性而经常被视为“黑盒子”。正是由于DNN模型无法详细地解释预测是如何建立的,所以其透明度受到了限制,很难在使用者间建立信任。
在本次讲座中,分享嘉宾将从建模和应用的角度提出一个生成DNN可解释性的系统框架,旨在解决可解释性机器学习中的两大主要技术挑战:
可靠性(faithfulness)和可理解性(understandability)。
具体来说,为了保证事后解释的可靠性,嘉宾将介绍如何利用特性反演(feature inversion)和加性分解(additive decomposition)技术来解释两种经典的DNN体系结构:卷积神经网络和递归神经网络的预测。此外,为了开发出更易于理解的解释型DNN模型,嘉宾将提出一种新的训练方法使DNN的解释规范化。
【嘉宾介绍】:
胡侠博士现任美国莱斯大学副教授,AIPOW联合创始人兼首席科学家。长期从事数据挖掘、机器学习和人工智能研究,在包括ICLR、 NeurIPS、KDD、WWW、SIGIR等在内的相关顶级国际会议及期刊发表论文100余篇,他引超过1万次。其主导开发的开源系统AutoKeras成为最常用的自动机器学习框架之一(超过8000次star及1000次fork);其开发的NCF算法及系统(单篇论文他引2500余次)成为主流人工智能框架TensorFlow的官方推荐系统;其主导开发的异常检测系统在通用、Trane、苹果等公司的产品中得到广泛应用。
他曾获包括WWW、WSDM及INFORM等顶级会议最佳论文(提名),美国国家科学基金会杰出青年奖、IEEE Atluri学者奖、亚利桑那州立大学校长奖等奖项,现担任ACM TIST、Big Data副主编及DMKD编委,曾担任信息检索领域顶级国际会议WSDM 2020大会主席。
他的研究工作曾被包括MIT Technology Review、ACM TechNews、 New Scientist、Defense One在内的国际媒体广泛报道。
个人主页:https://cs.rice.edu/~xh37/index.html