人工智能領域頂級會議NeurIPS 2025最佳論文獎近日公佈,共四篇論文獲獎,其中多篇由華人學者主導。獲獎工作涵蓋語言模型多樣性、大模型注意力機制、深度強化學習及擴散模型理論。
其中包括 Liwei Jiang 等提出的《Artificial Hivemind》,揭示大模型生成中的“人工蜂羣效應”;Zihan Qiu 等來自阿里巴巴Qwen團隊的《Gated Attention for Large Language Models》,提出有效緩解“注意力沉降”問題的新機制;Princeton University 的 Kevin Wang 等通過千層網絡實現自監督強化學習突破;以及 PSL University 的 Tony Bonnaire 等對擴散模型泛化機理的理論分析。
此外,He Kaiming、Sun Jian 等的《Faster R-CNN》榮獲“時間檢驗獎”。
以下是獲獎論文的簡要介紹:
最佳論文
-
Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)
- 作者:Liwei Jiang, Yuanjun Chai等
- 機構:艾倫人工智能研究所、斯坦福大學
- 內容:提出大規模數據集Infinity-Chat,揭示大語言模型在開放式生成中存在“人工蜂羣思維”效應,即模型內重複和模型間同質化問題,為評估模型多樣性提供了新基準。
- 鏈接:https://openreview.net/pdf?id=saDOrrnNTz
-
Gated Attention for Large Language Models: Non-Linearity, Sparsity, and Attention-Sink-Free
- 作者:Zihan Qiu, Zekun Wang等
- 機構:阿里通義千問團隊、愛丁堡大學等
- 內容:系統分析注意力門控機制對大語言模型的影響,發現其能提升模型性能、訓練穩定性及長上下文泛化能力,相關成果已應用於Qwen3-Next模型。
- 鏈接:https://openreview.net/pdf?id=1b7whO4SfY
-
1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities
- 作者:Kevin Wang, Ishaan Javali等
- 機構:普林斯頓大學、華沙理工大學
- 內容:證明將網絡深度擴展至1024層可顯著提升自監督強化學習性能,突破傳統淺層網絡限制,為構建更強大的AI系統開闢新途徑。
- 鏈接:https://openreview.net/pdf?id=s0JVsx3bx1
-
Why Diffusion Models Don’t Memorize: The Role of Implicit Dynamical Regularization in Training
- 作者:Tony Bonnaire, Raphaël Urfink等
- 機構:巴黎文理研究大學、博科尼大學
- 內容:揭示擴散模型訓練中的隱式動態正則化機制,解釋其為何能在高度過參數化下避免記憶化,為理解生成式AI的泛化能力提供理論基礎。
- 鏈接:https://openreview.net/pdf?id=BSZqpqgqM0
最佳論文亞軍
-
Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?
- 作者:Yang Yue, Zhiqi Chen等
- 機構:清華大學、上海交通大學
- 內容:挑戰強化學習激發大語言模型推理能力的假設,指出帶可驗證獎勵的強化學習(RLVR)未必能提升模型推理能力,為新型強化學習範式的研究提供方向。
- 鏈接:https://openreview.net/pdf?id=4OsgYD7em5
-
Optimal Mistake Bounds for Transductive Online Learning
- 作者:Zachary Chase, Steve Hanneke等
- 機構:肯特州立大學、普渡大學等
- 內容:解決學習理論領域長達30年的公開難題,精確刻畫傳導式在線學習的最優錯誤上界,確立其與標準在線學習的二次量級差距。
- 鏈接:https://openreview.net/pdf?id=EoebmBe9fG
-
Superposition Yields Robust Neural Scaling
- 作者:Yizhou Liu, Ziming Liu等
- 機構:麻省理工學院
- 內容:論證表徵疊加是神經網絡縮放定律的主要機制,為理解模型規模與性能的關係提供新視角。
- 鏈接:https://openreview.net/pdf?id=knPz7gtjPW
此外,任少卿、何愷明等2015年合著的《Faster R-CNN》獲得時間檢驗獎,該論文奠定了現代目標檢測框架的核心範式。