欢迎光临内蒙古在线!

今天是 2024年12月27日 星期五

关注社会热点

一起实现我们的中国梦

当前位置: 首页 > 科技

重新定义自监督学习,LeCun 团队让 MMCR 再进一步

近日,来自斯坦福、MIT、纽约大学和 Meta-FAIR 等机构的研究人员,通过新的研究重新定义了最大流形容量表示法(MMCR)的可能性。

多视图自监督学习(MVSSL,或称为联合嵌入自监督学习)是一种强大的无监督学习方法。它首先创建无监督数据的多个转换或视图,然后以类似监督的方式使用这些视图来学习有用的表示。

实现 MVSSL 的具体方法有很多,但大致可以分为四类:对比、聚类、蒸馏 / 动量、冗余减少。

在这众多的方法中,最大流形容量表示(Maximum Manifold Capacity Representation,MMCR)是与众不同的一类。

MMCR 不明确使用对比,不执行聚类,不利用蒸馏,也不明确减少冗余,但效果却可以媲美甚至超越其他领先的 MVSSL 方法。

而来自斯坦福、MIT、纽约大学和 Meta-FAIR 等机构的研究人员,正在通过新的研究重新定义这个框架的可能性。

论文地址:https://arxiv.org/ pdf/2406.09366论文地址:https://arxiv.org/ pdf/2406.09366

作为论文作者之一,LeCun 也发推表达了自己的观点:

除非使用预防机制,否则使用 SSL 训练联合嵌入架构会导致崩溃:系统学习到的表示信息不够丰富,甚至是恒定不变的。

人们设计了多种方法来防止这种崩溃。

一类方法是样本对比:确保不同的输入产生不同的表示。

另一类是维度对比:确保表示的不同变量对输入的不同方面进行编码。

两种类型的方法都可以从信息最大化参数中派生出来:确保表示形式尽可能多的编码有关输入的信息。

方差-协方差正则化、MMCR 和 MCR2(来自伯克利大学马毅团队)都是 infomax 维度对比方法。

信息最大化维度对比方法的核心思想,是推动编码器学习输入的表示,使其尽可能充分地利用表示空间,就像在有限的画布上尽可能展现丰富的细节。

为了更好地理解 MMCR,研究人员利用高维概率工具证明了,MMCR 可以激励学习嵌入的对齐和均匀性。

同时,这种嵌入最大化了视图之间的互信息的下界,从而将 MMCR 的几何视角与 MVSSL 中的信息论视角联系起来。

为了更好地利用 MMCR,研究人员对预训练损失的非单调变化进行数学预测和实验确认,发现了类似于双下降的行为。

此外,研究人员还发现了计算上的 scaling law,可以将预训练损失预测为梯度步长、批量大小、嵌入维度和视图数量的函数。

最终,作者证明了这个最初应用于图像数据的 MMCR 方法,在多模态图像文本数据上同样表现优异。

MMCR

MMCR 由纽约大学数据科学中心(NYU Center for Data Science,CDS)的研究人员于 2023 年提出。

该方法源于神经科学中的有效编码假说:生物感觉系统通过使感觉表征适应输入信号的统计数据来优化,例如减少冗余或维度。

最初的 MMCR 框架通过调整「流形容量」(衡量给定表示空间内可以线性分离的对象类别数量的指标)将这一想法从神经科学扩展到了人工神经网络。

许多 MVSSL 方法要么明确源自信息论,要么可以从信息论的角度来理解,但 MMCR 不同。

MMCR 指出估计高维互信息已被证明是困难的,且逼近互信息可能不会改善表示。MMCR 的基础在于数据流形线性可分性的统计力学表征。

不过 LeCun 等人的这篇工作,将 MMCR 的几何基础与信息论原理联系起来,探索了 MMCR 的更深层次机制,并将其应用扩展到了多模态数据,例如图像文本对。

理论基础

MMCR 源自有关线性二元分类器性能的经典结果。考虑 D 维度中的 P 点(数据),具有任意分配的二进制类标签;线性二元分类器能够成功对点进行分类的概率是多少?

统计力学计算表明,在热力学极限下,容量 α= 2 时会发生相变。MMCR 将此结果从点扩展到流形:

最小化 MMCR 损失意味着最大化平均矩阵的核范数。

直观上,完美重建意味着同一数据的所有视图都被网络映射到相同的嵌入,完美均匀性意味着嵌入均匀分布在超球面周围。

具有完美重建和完美均匀性的嵌入实现了尽可能低的 MMCR 损失具有完美重建和完美均匀性的嵌入实现了尽可能低的 MMCR 损失

基于对 MMCR 嵌入分布的新认识,我们如何将 MMCR 的统计力学几何观点与信息论观点联系起来?

答案是,MMCR 激励表示的最大化,对应于同一数据的两个视图的两个嵌入共享的互信息的下限。

考虑某些输入数据两个不同视图的嵌入之间的互信息。两个视图之间的互信息必须至少与两项之和一样大:一个嵌入重建另一个的能力,再加上嵌入的熵:

MMCR 的双下降

通过高维概率分析可知,预测最大流形容量表示的预训练损失,也应该在其预训练损失中表现出非单调双下降样行为。

(双下降:测试损失作为数据总数和模型参数数量的函数表现出非单调变化)。

然而,本文的分析也表明,这种类似双下降的行为应该发生在非典型参数(流形的数量 P 和维数 D)上,而不是数据的数量和模型的参数量。

具体来说,理论预测最高的预训练误差应该恰好发生在阈值 P = D 处,预训练误差落在阈值的两侧。

为了比较不同超参数对的点数 P 和数据维度 D 之间的损失,这里使用 MMCR 预训练界限来定义预训练百分比误差:

研究人员在 STL-10 上预训练了 ResNet-18,STL-10 是一个与 CIFAR-10 类似的数据集,但分辨率更高 (96x96x3),并且包含 100000 张图像的附加未标记分割。

扫描范围 P:{64, 128, 256, 512, 1024} × D:{64, 128, 256, 512, 1024} × K:{2, 4, 8}(K 为视图数),结果如上图所示。

Compute Scaling Laws

在许多 MVSSL 方法中,更改超参数通常会导致预训练损失不相称,从而使运行之间的比较变得困难。

然而,MMCR 预训练百分比误差产生的数量介于 0 和 1 之间,因此可以将不同超参数(P 和 D)时的训练情况放在一起比较。

执行这样的比较会产生有趣的经验现象:计算 MMCR 预训练百分比误差中的神经缩放定律。

通过绘制在 STL-10 上预训练的 ResNet-18 网络,我们可以清楚地看到预训练百分比误差的幂律缩放与所有点数 P 、嵌入维度 D 和视图数量 K 的计算量的关系。

一个关键细节是这些神经缩放曲线突出了类似双下降的行为:对角线子图(P = D 时)具有较高的预训练百分比误差和较小的预训练百分比斜率。

MMCR 与多模态

考虑 OpenAI 的对比语言图像预训练模型 CLIP 的设置,两个不同的网络在图像文本标题对上进行预训练,从两个不同的数据域 X 和 Y 获取数据。

X 和 Y 是配对的,使得 X 中的每个示例在 Y 中都有对应的正对,反之亦然。从 MMCR 角度来看,X 和 Y 可以理解为同一底层对象的两个视图。

因此,最优变换嵌入 f (X) 和 g (Y) 应映射到同一空间,并且我们可以利用对 MMCR 的改进理解来训练这些最优网络。

与常见的 MVSSL 不同,这里的 X 和 Y 在实践中可能代表极其不同的分布。

在上图的图像-文本对齐实验中,作者将多模态 MMCR 应用于 DataComp-Small,并将零样本 Imagenet 性能与标准 CLIP 目标进行比较。

可以发现,多模态 MMCR 在小批量(< 512)下表现优于 CLIP。

参考资料:

  • https://x.com/ylecun/status/1834666512856031537

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

训练 新浪众测 新浪众测 新浪科技公众号 新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

相关新闻
本文来源于网络,不代表内蒙古在线立场,转载请注明出处
我要收藏
0个赞
转发到:
推荐阅读
  • 鸿蒙智行问界今日开启冬季服务活动,活动时间为2025年1月29日。本次活动针对进店车辆的多项安全检查项目,包括轮胎、刹车、空调系统、空气系统等。此外,进店用户还可获得免费的冬季特饮和新年礼包。要享受这些福利,用户需要完成车辆认证并进入“赛力[全文]
    2024-12-26 04:01
  • 新浪科技公众号 “掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注) [全文]
    2024-12-26 03:58
  • 中新经纬12月25日电 森麒麟25日晚间公告,因短线交易公司“麒麟转债”可转债,公司实控人、董事长秦龙被罚12万元。据公告,森麒麟于2024年11月30日披露了《关于公司实控人、董事长因涉嫌短线交易收到立案告知书的公告》,因涉嫌短线交易公[全文]
    2024-12-26 03:57
  • (中关村在线 四川行情)戴尔成就Vostro 3030S是一款高性能台式电脑主机,非常适合教育学习使用。搭载了最新的14代i5-14400处理器,性能强劲稳定,无论是进行多任务处理还是运行大型软件都游刃有余。电脑内存高达16GB,可以轻松应[全文]
    2024-12-25 04:08
腾讯云秒杀
阿里云服务器

Copyright 2003-2024 by 内蒙古在线 nmg.xwxzx.cn All Right Reserved.   版权所有

未经授权请勿转载 | 网站所有内容来源于网络,如有侵权联系我们删除。