維基百科編輯團隊公開其內部使用的《AI寫作識別指南》,首次系統性揭示大語言模型(LLM)在行文中的“行為指紋”,為公眾提供了一套可操作、有據可依的AI文本鑑別方法。
自2023年啓動“AI清理計劃”(Project AI Cleanup)以來,維基百科編輯們每天面對數百萬條編輯提交,積累了海量AI寫作樣本。他們發現,自動化檢測工具基本無效,而真正可靠的判斷,來自對語言習慣與敍事邏輯的深度觀察。
- 空洞的重要性強調 AI熱衷用泛泛之詞標榜主題價值,如“這是一個關鍵時刻”“體現了廣泛影響”,卻缺乏具體事實支撐——這種“重要性焦慮”在人類撰寫的百科條目中極為罕見。
- 堆砌低價值媒體報道 為證明人物或事件“值得收錄”,AI常羅列大量邊緣媒體曝光(如某博客採訪、地方電台片段),模仿個人簡歷寫法,而非引用權威、獨立信源。
- “現在分詞”濫用式總結 頻繁使用“強調……的重要性”“反映……的持續相關性”等模糊尾隨句式(語法上稱為“現在分詞短語”),製造一種“深度分析”的假象,實則內容空洞。維基編輯稱:“一旦你注意到這種套路,就會發現它無處不在。”
- 廣告式形容詞氾濫 AI偏愛使用“風景如畫”“視野壯麗”“乾淨現代”等營銷話術,行文“聽起來像電視廣告腳本”,缺乏客觀、剋制的百科語感。
- 過度結構化但缺乏洞見 段落看似邏輯清晰、層層遞進,實則重複同義表述,缺乏人類作者的批判性思維或獨特視角。
維基團隊指出,這些“語言指紋”深植於AI的訓練邏輯:模型通過海量網絡文本學習“如何像人一樣寫作”,而互聯網充斥着自我推銷、SEO優化與內容農場式文本。因此,AI自然繼承了這些“數字時代寫作病”——即便技術再進化,只要訓練數據不變,這些習慣就難以徹底清除。