机器学习研究今年谁最火Reddit 为提名选手吵成一团

机器学习今年的热门研究,会是什么?

近日,有网友在 Reddit 开了这么一个盘,立刻吸引了大批 MLer 的注意。

有人提名自监督模型,有人认为表征学习越来越受到关注,还有人认为基于物理的机器学习才是未来的方向……

然而,目前从评论区最高赞数来看,上述的这几个方向都不是“赢家”。

截至目前,获赞最多的选手是 —— 几何深度学习

这项技术是因 Twitter 首席科学家、图机器学习大牛 Michael Bronstein 去年发表的一篇论文走入了大众视线。

▼ 顺带一提那篇论文有 160 页

那么问题就来了:

Top 人气从何而来?

几何深度学习全名 Geometric Deep Learning,最早是 Michael Bronstein 在 2016 年的一篇论文中引出的一个概念。

简单来说,这是一种试图从对称性不变性的视角出发,从几何上统一 CNNs、GNNs、LSTMs、Transformers 等典型架构的方法。

在高赞评论的下方,有人用一个简单的例子解释了这种“对称性”:

传统网络认为“E”和“3”是不同的,但是具有镜像对称性(或 π 键旋转)的网络却会认为它们是一致的。

CNN 就是这样,当不变性变得可平移(或者可转换)时,右上角的 3 和中心的 3 当然就是一样的。我们希望将 CNN 的这种特性“推及”到其他架构上。

这就对称带来的稳定性,因为在视觉上,许多物体其实是同一个物体,会具有“这是同一个物体,只是翻转了一下”的 3D 几何相似性,因此很多问题都可以基于对称性得到解决。

而传统卷积网络更多地使用数据增强,如旋转,平移,翻转来补偿这一目的。

所以,几何深度学习希望几何学中的“不变群”的概念范围放得更宽,让网络除了旋转平移对称的常规操作之外,还能囊括“不变”这种操作。

比如在一段视频中,有两辆小车相向而行,无论速度如何,有无遮挡,视频的语义就是两辆小车相向行驶。

总的来说,几何深度学习既能使卷积网络更加稳定,也能更好地面对复杂度爆炸的拟合函数。

其他热门提名

除了几何深度学习这个大热门,还有不少我们熟悉的方法也进入了“提名”。

比如,在在评论区中被提及的次数最多的“民推之子”—— 自监督学习

监督学习是目前机器学习领域主流的方法,而自监督学习作为一种新的学习方法,利用输入数据本身作为监督信号,从未标记的数据中学习信息表示,几乎有利于所有不同类型的下游任务。

在图像分类、语言翻译等诸多 CV 和 NLP 领域都是随处可见,LeCun 也一直十分推崇这种研究方向。

▲ LeCun2018 年演讲

也有人认为表征学习可解释性 (interpretability)越来越受到关注。

他首先解释道,提名表征学习是因为理论深度学习领域似乎正在经历一个从“规范”问题(如深度与宽度、近似理论、动态)到更抽象问题的转变:

比如什么才是好的表示?表示的哪些属性是重要的?如何用数学的方式定义这个概念?我们如何执行它们?

可解释性与表征学习也有一定关系:如果能够理解什么是好的表现,能够在它上面强加属性,那么它就更具有可解释性。

还有提名检索、应用于强化学习上的迁移学习、多模态以及大规模语言模型上的偏好学习的:

其中的“检索”指的是从外部数据集中检索信息,就像是 deepmind 近期的这项实验一样。

这位帖主还提到,也可以利用检索来补救长尾问题。

有意思的是,评论区有位提名“量子机器学习”的,引来了一位搞物理的,真诚向搞 AI 的发问:

这玩意儿是真的有用,还是只是民科?

其实在 2017 年时,图灵奖得主姚期智就在一次演讲时说过“如果能够把量子计算和 AI 放在一起,我们可能做出连大自然都没有想到的事情。”

这是一个量子计算和机器学习交叉的的跨学科技术领域,借助于量子特性开发高性能的量子机器学习算法,从而加快或拓宽人工智能的应用场景。

不过目前还没有影响广泛的应用出现,因此楼主谨慎地回复:不了解,不过好多人说这是机器学习的最新趋势来着…….

评论区中,我们熟悉的扩散模型、联邦学习、差分算法、元学习也都有人提及。

等到了今年年底的时候,我们可以再挖坟,看看是不是真的有提名中了奖。

参考链接:

https://www.reddit.com/r/MachineLearning/comments/t04ekm/d_whats_hot_for_machine_learning_research_in_2022/

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注