2025 年春,普林斯頓大學物理學學士、加州理工學院計算神經科學博士李飛飛教授榮獲「伊麗莎白女王工程獎(Queen Elizabeth Prize for Engineering)」,這一獎項被視為「工程領域的諾貝爾獎」。評審團表彰了李飛飛在計算機視覺與深度學習中的奠基性工作,認為她的研究「讓機器第一次以接近人類的方式看見世界」。

「工程不止是算力與算法,更是責任與共情。」李飛飛在領獎演講中強調,技術的突破並不等於理解的進步。對於 AI 加速的時代,她始終保持着一種警覺:算法在重構語言、圖像與知識體系的同時,也在重塑社會的權力結構與人類的自我感知。AI的最大風險在於「去人性化」,她在個人回憶錄 The Worlds I See 序言中寫道,「如果人工智能忘記了人類的價值,它將失去存在的意義。」

在硅谷的產業敍事中,李飛飛的反對聲音格外罕見。相比強調規模與速度,她更關注智能背後的社會結構與倫理基礎:當機器愈發理解人類,人類是否仍真正理解自己? 李飛飛的故事不止於科學成就,而更關乎來自非主流少數派的人文話語。如何讓 AI 技術重新回到以人為中心的軌道,是她在獎項、榮譽與讚譽之外,真正想回答的問題。

在這裏插入圖片描述

::: hljs-center

李飛飛領獎照片

:::

作為「邊緣者」,她選擇脱離宏大敍事

1976 年,李飛飛出生在北京,父親是物理學家,母親是工程師。12 歲時,幾乎不會説英語的她隨父母移民美國新澤西州。移民初期的生活非常艱難,父母靠在乾洗店和餐館工作維持生計,她一邊努力學習英語,一邊在空閒時間在餐館和父母的乾洗店打工,以補貼家用。在採訪中,李飛飛回憶道,「作為移民或者移民家庭,生活真的很難」。 這段經歷也成為她後來的「移民意識」的邊緣心理基點:在西方的環境中,作為「她者」,李飛飛既見證了美國科技體系的繁榮,也體驗到社會結構的不平等。
她者:女性身份的「他者」,在權力結構、社會敍事、文化建構中,被放置在主流/主體之外,通過「女性」身份被凝視、被定義、被邊緣化或被他者化的那類存在。它來自西方哲學中的 Other / Otherness(他者/他性) 概念,後來在性別研究中被廣泛使用。

2000 年,李飛飛在加州理工學院攻讀計算神經科學博士,研究方向聚焦於視覺認知與人工智能的交叉領域(Visual Object Recognition and the Brain)。這段跨學科訓練讓她意識到「視覺」不僅是感知問題,更是理解問題:機器是否也能像人類一樣,通過經驗、上下文與記憶來理解世界? 這一思考,成為她此後提出 ImageNet 計劃的思想基礎。

在這裏插入圖片描述

::: hljs-center

李飛飛的博士學位論文

:::

2007 年,李飛飛在普林斯頓大學任教期間,與研究團隊啓動了後來影響深遠的 ImageNet 項目。2009 年,李飛飛在論文「ImageNet: A Large-Scale Hierarchical Image Database」中提到,當時,大多數計算機視覺算法嚴重依賴於手工製作的特徵和小數據集,「數據驅動深度學習」設想頗具爭議。但事實證明,她的堅持並沒有被時代拋下。隨着 AI 的技術範式悄然更迭,曾在學界被視為「冒險賭注」的大規模數據驅動方法,最終成為主流共識。

正如 Venturebeat 在報道中指出,李飛飛所推動的「數據驅動範式」改變了計算機視覺乃至整個 AI 的發展路徑, 「2012 年 ImageNet 競賽之後,媒體迅速關注到了深度學習的趨勢。到 2013 年,幾乎所有的計算機視覺研究都轉向了神經網絡。」

在這裏插入圖片描述

::: hljs-center

VB 有關深度學習發展的報道

:::

於是,在 AI 狂潮來臨之際,這位曾經在移民邊緣身份中艱難前行的科學家,終於被推向了時代的中心。

然而,儘管其研究成果奠定了深度學習時代的基礎,李飛飛卻從未完全融入硅谷主導的技術敍事:邊緣身份賦予她的獨特視角,使她面對席捲全球的 AI 狂熱始終保持冷峻的距離感。

在硅谷的主流敍事中,AI 被描繪為技術競賽、資本博弈和國家戰略的核心議題,但李飛飛選擇從人文、倫理的角度重新審視這一體系。她在多次公開場合指出,AI 的發展正被過度商業化和軍事化,研究資源和社會想象力都集中於「更大模型」和「更強算力」,卻忽視了技術的社會後果。

2019 年,李飛飛重返斯坦福,並與 Marc Tessier-Lavigne、John Etchemendy 等人共同創立 Stanford Institute for Human-Centered Artificial Intelligence(HAI),將倫理、公共部門與弱勢羣體重新納入 AI 的技術設計,並在其使命(Mission Statement)中明確寫入一條核心原則:AI 必須服務於人類最廣義的福祉。

在 HAI 機構發佈的採訪中,李飛飛直言道,「我並非典型的科技精英,我是移民、女性、亞裔、學者,這些身份賦予了我獨特的視角和觀點。人工智能的未來影響如此深遠,意味着我們必須保持自主權。 我們必須選擇如何構建和使用這項技術。如果我們放棄自主權,將會陷入自由落體式的墜落。」

在這裏插入圖片描述

::: hljs-center

斯坦福 HAI 機構對李飛飛的採訪

:::

反對硅谷技術神話,李飛飛警示「AI 去人性化」風險

與硅谷的主流敍事不同,李飛飛持續倡導「AI4Humanity」的理念, 將社會價值和倫理納入技術發展的考量。她警示技術進步可能帶來的「去人性化」風險,強調 AI 應以人為本,技術必須與人類需求與價值保持一致。

2018 年面對 Google 與美國國防部合作開發的軍事無人機圖像識別項目 Project Maven 時,李飛飛在郵件中明確了自己對 AI 軍事化的反對立場:「AI 應該是造福人類的,Google 不能讓公眾認為我們在開發武器。」

在這裏插入圖片描述

::: hljs-center

Wired 對李飛飛 AI4Humanity 的報道

:::

在接受 Issues 採訪時,李飛飛也對 AI 的潛在風險直言不諱,「AI 技術的影響是雙刃的。對社會而言,這項技術可以治癒疾病、發現藥物、尋找新材料、創造氣候解決方案,與此同時也可能帶來風險,例如虛假信息傳播和勞動力市場劇烈變革。」

在這裏插入圖片描述

::: hljs-center

Issues 對李飛飛的採訪報道

:::

事實上,為進一步限制 AI 風險,李飛飛已多次在公共場合強調建立 AI 倫理監管機制的必要性。 在 McKinsey&Company 的採訪中,李飛飛就冷靜表示,建立基於法律體系的監管機制是非常緊迫的事,「理智地説,這是人類在獲得新發明和新發現時必須的。這個機制將部分通過教育來實現,我們需要讓公眾、政策制定者和決策者瞭解這項技術的威力、侷限性和事實,然後將規範融入其中。而監管框架將通過法律保障執行和實施。」

在這裏插入圖片描述

::: hljs-center

McKinsey&Company 對李飛飛的採訪

:::

同時,為推動教育在 AI 倫理監管中的驅動作用,在 2025 年 5 月在舊金山舉行的 Semafor Tech 活動上,李飛飛還呼籲特朗普政府減少對大學財政的干預。 日前,為打擊移民行動,特朗普政府削減了數十億美元的大學科研撥款,並吊銷數千名學生簽證。對此,李飛飛表示,隨着全球科技競爭日益激烈,制裁研究機構將會為 AI 的倫理髮展帶來潛在風險。

「公共部門,尤其是高等教育,一直是美國創新生態系統的關鍵組成部分,也是我們經濟增長的重要組成部分,我們所知的幾乎所有人工智能經典知識都來自學術研究,無論是算法、數據驅動方法,還是早期微處理器研究。」李飛飛説,「政府應繼續為高等教育和公共部門提供充足的資源,開展這種創新性、無拘無束、以好奇心驅動的研究,對於我們生態系統的健康發展以及培養下一代至關重要。」

此外,李飛飛還直言,美國對某些國家公民的簽證配額一直是許多人才留下的難題,「平心而論,我希望我的學生能夠獲得工作簽證,並找到移民途徑。」

在這裏插入圖片描述

::: hljs-center

Semafor 對 Semafor Tech 活動的報道

:::

總之,面對硅谷狂熱的技術樂觀主義,李飛飛始終保持着反思者的姿態,警惕着 AI 「去人性化」的風險。「很多人,尤其是在硅谷,都在談論提高生產力,但生產力的提高並不意味着人人都能共享繁榮。我們要認識到 AI 只是一種工具,工具本身不具備價值,工具的價值根本源於人類價值。」

她堅持表示,無論從個人、社區還是社會層面來看,以人為本的人工智能方法都是必要的。「我們需要一個以人為本的框架,以個人、社區、社會的同心圓式責任來確保實現 AI 應當改善人類福祉的共同承諾。」

基於邊緣經驗,詮釋複雜生態位的機遇與負擔

面對女性、移民、亞裔、學者的多重邊緣身份,李飛飛承認,這些經歷極大影響了她的研究和主張。李飛飛在 HAI 的採訪中提到,正是這些邊緣經驗,讓她看待新技術的視角與那些從小就生活在更穩定的環境中、五歲就開始接觸電腦的孩子截然不同,能持續意識到技術體系的結構性偏差。

「科學探索未知,正如移民探索未知一樣。兩者都身處充滿不確定性的旅程,你必須找到自己的指路明燈。事實上,我認為這正是我想要從事以人為本的人工智能的原因。移民經歷、乾洗店生意、父母的健康——我所經歷的一切都深深植根於人性之中。這賦予了我獨特的視角和觀點。」李飛飛直言。

然而,邊緣身份帶來的洞見,也伴隨着誤解、爭議與壓力。作為全球科技領域最具影響力的女性之一,李飛飛常被媒體塑造為「AI 教母」,但李飛飛在多次公開場合表達過對這種符號化的不適,並厭倦被稱作「女性榜樣」。

**「我不太喜歡被稱作 AI 教母。」**李飛飛在 Axios 的報道中談到。科技行業對於女性的期待過度符號化,致使女性科學家往往承擔了一種「角色式的想象」:女性被頻繁邀請講述「勵志故事」,被要求代表多元、代表突破、代表希望,卻不被視為普通的科學家、研究者或決策者,平等地參與核心技術和戰略討論。

「但我確實想肯定女性的貢獻,因為她們常常在科學史上被忽視。我希望 AI 領域能有不止一位教母。」李飛飛進一步表示,真正的挑戰是讓性別多樣性在行業中成為常態。而為推動這一理想逐步走向現實,她在斯坦福開展了 AI4All 教育計劃,旨在扶持女性與少數族裔進入AI領域。

在這裏插入圖片描述

::: hljs-center

Axios 對李飛飛的報道

:::

此外,李飛飛的族裔身份,似乎讓外界對其研究成果的種族問題更為關注。

雖然 ImageNet 被視為計算機視覺研究的基石,但該數據集的「people」子樹長期遭到學界與媒體的批評。早在 2019 年,The Art Newspaper 就報道了外界對 ImageNet 潛在種族主義傾向的質疑,認為該數據庫經常將白人分配到與實際情況嚴重不符的標籤。例如,藝術家 Trevor Paglen 和研究員 Kate Crawford 在使用 ImageNet 後,就在網絡上給了這個數據集並不友好的評價,「The Verge 的一位編輯被歸類為煙斗吸煙者和空乘人員,還有其他社交媒體用户報告稱,他們被用種族歧視性詞語和其他極具冒犯性的詞語來描述。」

雖然大量負面評價促使 ImageNet 團隊對數據集進行了清理與重構討論,刪除了約 60 萬張照片,但 ImageNet 「中性基石」的假設仍因此受到懷疑。

在這裏插入圖片描述

::: hljs-center

The Art Newspaper 對 ImageNet 負面消息的報道

:::

同時,李飛飛的少數派觀點,使她不得不立於硅谷主流與廣羅大眾間的灰色地帶,她在 AI 產業中的角色也因此引發了持續爭議。

「她是當今 AI 蓬勃發展背後的重要人物,但並非所有計算機科學家都認為她的巨型視覺數據庫想法是正確的。」AP 撰稿人 Matt Obrien 在一則專欄稿件中寫道。對於李飛飛等少數派科學家所關注的「以人為本」「AI 倫理」等議題,一些研究者長期將其背後的極端風險論批判為宗教化的宣傳。 例如,Palantir 首席技術官 Shyam Sankar 就表示,他一直不相信「AI 末日論」的論調,AI 帶來災難性後果的可能性極低,是「超人類主義者」在散播謠言。

「威脅論完全是一種融資噱頭,」Sankar 對此不以為然,「處於開發前沿的公司可以通過宣揚這一點來獲取投資。」

在這裏插入圖片描述

::: hljs-center

AP 有關李飛飛的報道

:::

然而,另一部分評論者卻認為,李飛飛對技術與資本結合趨勢產生的事實推助,與其科研願景之間存在錯位:儘管長期強調「以人為本」,反對 AI 的過度商業化,但作為 Google Cloud AI 的前首席科學家,她不可避免地推動了 AI 的產業化進程。

因此,作為「人本 AI」的旗幟性人物和商業化 AI 基礎設施的塑造者, 李飛飛被置於略顯微妙的交叉地帶。

在這裏插入圖片描述

::: hljs-center

Business Insider 的報道

:::

總之,在 AI 神話下,李飛飛的立場本身折射出科學家、算法與人類價值之間的複雜互動,並早已成為充滿張力的警示標識:科技能否獨立於社會、倫理與人文考量而存在,又如何在快速商業化與長遠社會責任之間取得平衡? 李飛飛對「人本 AI」的叩問,仍是硅谷技術崇拜敍事之外懸而未決的挑戰。

參考鏈接:
1.https://www.businessinsider.com/palantir-shyam-sankar-skeptical-ai-jobs-2025-10
2.https://apnews.com/article/ai-pioneer-feifei-li-stanford-computer-vision-imagenet-702717c10defd89feabf01e6c1566a4b
3.https://www.wired.com/story/fei-fei-li-artificial-intelligence-humanity/
4.https://www.theartnewspaper.com/2019/09/23/leading-online-database-to-remove-600000-images-after-art-project-reveals-its-racist-bias