表示学习的利与弊

监督学习在近年来的成功很大程度上依赖于丰富无偏的数据,但是标注数据的获得往往十分费时及昂贵。另一方面,不变表示学习在近期获得了长足的进展,并且在领域迁移以及算法公平性方面有丰富的应用。但是,在理论上并不是很清楚为了获得通用的表示,我们需要在算法的效用方面付出什么样的代价。在这个讲座中,我会讨论自己最近关于理解不变表示学习的一系列工作。 在讲座的第一部分,通过刻画一个不变性与效用之间的基本权衡,我会主要将讨论集中在理解不变表示学习的弊端。特别地,我会使用领域迁移作为一个例子同时从理论和实际的角度来说明不变性给缩小泛化误差带来的障碍。这个结果同时也蕴含了在分类问题和回归问题中,算法公平性以及算法效用之间的本质矛盾。在讲座的第二部分,我会将重点集中在讨论如何通过表示学习设计更好的学习算法,以此来达到利用表示学习来规避上述矛盾的目的。我会展示为什么这些算法可以用来保证来自不同群组的人们获得公平的对待,我同时也会讨论我们需要什么样的额外结构来保证有效的领域迁移。

播放:120次,课程ID:4155407

表示学习的利与弊课程简介:前往报名学习

表示学习的利与弊课程简介:

监督学习在近年来的成功很大程度上依赖于丰富无偏的数据,但是标注数据的获得往往十分费时及昂贵。另一方面,不变表示学习在近期获得了长足的进展,并且在领域迁移以及算法公平性方面有丰富的应用。但是,在理论上并不是很清楚为了获得通用的表示,我们需要在算法的效用方面付出什么样的代价。在这个讲座中,我会讨论自己最近关于理解不变表示学习的一系列工作。 在讲座的第一部分,通过刻画一个不变性与效用之间的基本权衡,我会主要将讨论集中在理解不变表示学习的弊端。特别地,我会使用领域迁移作为一个例子同时从理论和实际的角度来说明不变性给缩小泛化误差带来的障碍。这个结果同时也蕴含了在分类问题和回归问题中,算法公平性以及算法效用之间的本质矛盾。在讲座的第二部分,我会将重点集中在讨论如何通过表示学习设计更好的学习算法,以此来达到利用表示学习来规避上述矛盾的目的。我会展示为什么这些算法可以用来保证来自不同群组的人们获得公平的对待,我同时也会讨论我们需要什么样的额外结构来保证有效的领域迁移。

前往报名学习

表示学习的利与弊课程目录:

No list

No list

表示学习的利与弊授课教师:

赵晗-伊利诺伊大学香槟分校助理教授-伊利诺伊大学香槟分校-

Han Zhao is a Machine Learning Researcher at the D. E. Shaw group and an adjunct assistant professor at the University of Illinois at Urbana-Champaign. He obtained his BEng degree in Computer Science from Tsinghua University (honored as a Distinguished Graduate), MMath degree in mathematics from the University of Waterloo (honored with the Alumni Gold Medal Award) and his Ph.D. degree in Machine Learning from Carnegie Mellon University. His research interests are broadly in machine learning, with a focus on representation learning and probabilistic reasoning.

© 柠檬大学 2020