NeurIPS 2025 最佳論文獎公佈,中國研究者貢獻突出

新聞
HongKong
15
12:33 PM · Nov 28 ,2025

人工智能領域頂級會議NeurIPS 2025最佳論文獎近日公佈,共四篇論文獲獎,其中多篇由華人學者主導。獲獎工作涵蓋語言模型多樣性、大模型注意力機制、深度強化學習及擴散模型理論。

其中包括 Liwei Jiang 等提出的《Artificial Hivemind》,揭示大模型生成中的“人工蜂羣效應”;Zihan Qiu 等來自阿里巴巴Qwen團隊的《Gated Attention for Large Language Models》,提出有效緩解“注意力沉降”問題的新機制;Princeton University 的 Kevin Wang 等通過千層網絡實現自監督強化學習突破;以及 PSL University 的 Tony Bonnaire 等對擴散模型泛化機理的理論分析。

此外,He Kaiming、Sun Jian 等的《Faster R-CNN》榮獲“時間檢驗獎”。


以下是獲獎論文的簡要介紹:

最佳論文

  1. Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)

    • 作者:Liwei Jiang, Yuanjun Chai等
    • 機構:艾倫人工智能研究所、斯坦福大學
    • 內容:提出大規模數據集Infinity-Chat,揭示大語言模型在開放式生成中存在“人工蜂羣思維”效應,即模型內重複和模型間同質化問題,為評估模型多樣性提供了新基準。
    • 鏈接:https://openreview.net/pdf?id=saDOrrnNTz
  2. Gated Attention for Large Language Models: Non-Linearity, Sparsity, and Attention-Sink-Free

    • 作者:Zihan Qiu, Zekun Wang等
    • 機構:阿里通義千問團隊、愛丁堡大學等
    • 內容:系統分析注意力門控機制對大語言模型的影響,發現其能提升模型性能、訓練穩定性及長上下文泛化能力,相關成果已應用於Qwen3-Next模型。
    • 鏈接:https://openreview.net/pdf?id=1b7whO4SfY
  3. 1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities

    • 作者:Kevin Wang, Ishaan Javali等
    • 機構:普林斯頓大學、華沙理工大學
    • 內容:證明將網絡深度擴展至1024層可顯著提升自監督強化學習性能,突破傳統淺層網絡限制,為構建更強大的AI系統開闢新途徑。
    • 鏈接:https://openreview.net/pdf?id=s0JVsx3bx1
  4. Why Diffusion Models Don’t Memorize: The Role of Implicit Dynamical Regularization in Training

    • 作者:Tony Bonnaire, Raphaël Urfink等
    • 機構:巴黎文理研究大學、博科尼大學
    • 內容:揭示擴散模型訓練中的隱式動態正則化機制,解釋其為何能在高度過參數化下避免記憶化,為理解生成式AI的泛化能力提供理論基礎。
    • 鏈接:https://openreview.net/pdf?id=BSZqpqgqM0

最佳論文亞軍

  1. Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?

    • 作者:Yang Yue, Zhiqi Chen等
    • 機構:清華大學、上海交通大學
    • 內容:挑戰強化學習激發大語言模型推理能力的假設,指出帶可驗證獎勵的強化學習(RLVR)未必能提升模型推理能力,為新型強化學習範式的研究提供方向。
    • 鏈接:https://openreview.net/pdf?id=4OsgYD7em5
  2. Optimal Mistake Bounds for Transductive Online Learning

    • 作者:Zachary Chase, Steve Hanneke等
    • 機構:肯特州立大學、普渡大學等
    • 內容:解決學習理論領域長達30年的公開難題,精確刻畫傳導式在線學習的最優錯誤上界,確立其與標準在線學習的二次量級差距。
    • 鏈接:https://openreview.net/pdf?id=EoebmBe9fG
  3. Superposition Yields Robust Neural Scaling

    • 作者:Yizhou Liu, Ziming Liu等
    • 機構:麻省理工學院
    • 內容:論證表徵疊加是神經網絡縮放定律的主要機制,為理解模型規模與性能的關係提供新視角。
    • 鏈接:https://openreview.net/pdf?id=knPz7gtjPW

此外,任少卿、何愷明等2015年合著的《Faster R-CNN》獲得時間檢驗獎,該論文奠定了現代目標檢測框架的核心範式。

user avatar
0 位用戶收藏了這個故事!
收藏

發佈 評論

Some HTML is okay.