一水 发自 凹非寺

见证历史!AI想的科研idea,真被人类写成论文发表了

量子位 | 公众号 QbitAI

天啦撸!!AI想出来的idea,还真有人写成论文了。

甚至预印本arXiv、博客、代码全都有了。

而现在,受其中一篇论文想法的启发,人类研究员真的写出相关论文并在arXiv上公开了。

OpenAI前研究团队负责人Jeff Clune激动直言:

简直不敢相信!这是它产生的我最喜欢的想法之一。看到与人类达成一致真是太酷了,人类确实执行得更好。

话不多说,让我们来康康论文具体内容。

Claude提的idea,被人类写成论文了

翻开“AI科学家”之前撰写的论文,我们找到了Jeff Clune提到的这一篇。

《Grokking Through Compression: Unveiling Sudden Generalization via Minimal Deion Length》

通过压缩实现Grokking:借助最小描述长度(MDL)揭示突然泛化现象

根据描述,这篇论文的想法由Claude 3.5 Sonnet在第22次迭代时提出。

它主要探讨了神经 *** 中最小描述长度 (MDL)与 “grokking” 现象 (模型经长时间训练后突然泛化)的关系,从信息论视角研究突然泛化的机制。

其中,MDL可以被看成一种衡量模型复杂度和可压缩性的 *** ,即模型既要能够很好地拟合数据,又不能过于复杂 (避免过拟合)。

具体而言,研究引入了一种基于权重剪枝的新型MDL估计技术,并将其应用于多种数据集,包括模块化算术和排列任务。相关实验揭示了MDL减少与泛化能力提高之间存在强烈的相关性 (下图),MDL的转变点通常在“grokking”事件发生之前或与之同时出现。

此外,研究观察到在“grokking”与非“grokking”情境下MDL演变模式的差异,前者以快速的MDL减少后持续泛化为特征。这些发现为理解“grokking”的信息论基础提供了见解,并表明 在训练期间监控MDL可以预测即将发生的泛化。

Okk,了解了原论文,我们再来看人类选手最新发表的内容。

概括而言,他们研究了神经 *** 在 “grokking” 现象中的复杂性动态,即 *** 从记忆训练数据到实现完美泛化的过渡过程,并提出了一种基于失真压缩理论的新 *** 来衡量神经 *** 的复杂性。

首先,作者之一Branton DeMoss自述,他们受到了Sean Carroll和Scott Aaronson之前研究的启发。

通过观察 咖啡与奶油混合的现象,Scott等人发现复杂性随着时间的推移首先上升,然后下降,这一过程与熵单调增加的趋势相似。

而DeMoss团队形式化了这一直觉,并将其应用于神经 *** ,以跟踪这些 *** 学习的抽象复杂度。

展开来说,作者们同样先介绍了 grokking现象,即神经 *** 在长时间过度拟合训练数据后突然能够泛化的能力。

其中x轴表示优化步数,y轴表示准确率;红线代表训练集的准确率,绿线代表验证集的准确率。

可以看到,如果训练一个小型Transformer来进行模拟,在几百个训练步骤之后,模型已经完美地拟合了训练数据;然而,它直到大约10^5个训练步骤才能实现泛化。

为了解释这一现象,团队引入了一种基于失真压缩和Kolmogorov复杂性的新 *** 来衡量神经 *** 的复杂性,并通过这一框架追踪了grokking过程中 *** 复杂性的动态变化。

按照作者的比喻,这就像“神经 *** 的JPEG”。

研究结果表明, *** 在从记忆到泛化的过渡中, 其复杂性首先上升,随后在泛化发生时下降。

进一步地,研究发现如果神经 *** 没有任何形式的正则化 (一种防止过拟合的技术),它将无法从记忆阶段过渡到泛化阶段,而是会无限期地保持记忆模式。

没有正则化的反应:

有正则化的反应:

此外,作者指出传统的复杂性评判标准 (如参数数量和权重范数)并不能准确描述模型的复杂性,因为它们忽略了训练过程中的变化。

对此,他们采用了最小描述长度(MDL)原则和Kolmogorov复杂度来定义和近似复杂性,并通过实验验证了这种 *** ,并强调了 简单模型在数据压缩中的优势。

最终,研究表明理解复杂性对预测模型泛化能力至关重要。

更多细节感兴趣可以查阅原论文 (地址文末)。

可以看出,一个由AI最初提出的想法,最终由人类来完成了更细致的论证。

有网友就分析指出AI写的那篇实验结果不及人类研究员:

而之前撰写过“AI科学家”总论文的共同一作Cong Lu也表示:

谁知道未来AI还会激发出哪些其他想法……

总之,AI以后不仅能自己写论文,还能和人类搭配干活了。

论文:

https://arxiv.org/abs/2412.09810

GitHub:

https://github.com/brantondemoss/GrokkingComplexity

博客:

https://brantondemoss.com/research/grokking/

参考链接:

— 完—