博客 / 詳情

返回

專訪 | 軟硬協同、開源共建:英特爾與龍蜥攜手打造 AI 時代的可信計算底座

編者按:近日,2025 龍蜥操作系統大會(OpenAnolis Conference)在北京圓滿召開。當智能駕艙廠商訓練自動駕駛 AI 模型、金融機構運行 AI 風控系統時,普遍面臨相同困境:數據敏感不敢上雲,本地算力又難以支撐大模型需求。AI大爆發後,“算力效率”與“數據安全”的矛盾愈發突出。2025 龍蜥操作系統大會前夕,InfoQ 對話英特爾技術專家與阿里雲技術專家,揭秘雙方如何通過第六代至強處理器與龍蜥操作系統的深度協同,破解這一行業難題。以下為採訪全文:
圖片

合作底層邏輯:為什麼是“英特爾硬件+龍蜥開源”?

AI 時代的算力釋放,早已不是“硬件單槍匹馬”能實現的。“過去硬件做芯片、軟件寫系統的分工模式已失效,AI 模型擴大與數據敏感化,要求硬件與軟件必須深度協同。”英特爾技術專家強調,“2020 年我們成為龍蜥首批理事單位,正是看中龍蜥操作系統在雲原生和 AI 領域的開源屬性——它能快速承接硬件新特性,而英特爾的芯片技術,就是要為這個開源生態打下堅實的算力底座。”

過去一年,雙方形成了固定的合作節奏:硬件首發時與龍蜥操作系統同步適配,避免企業“空有硬件用不了”;針對硬件暴露的軟件問題聯合優化,成果反哺龍蜥及 Linux 上游社區;英特爾提供測試資源,龍蜥聯動客户推動技術落地。總結來説,英特爾負責造算力、鎖安全,龍蜥負責用算力、傳價值,這是雙方合作的核心邏輯。

阿里雲技術專家補充道:“阿里雲作為雲平台方,剛好承接這種協同成果——把英特爾的硬件能力和龍蜥操作系統的系統優勢,打包成企業能直接用的雲服務,這也是我們作為社區理事長單位的價值。”

技術共建:從芯片到工具鏈,讓 AI 算力“跑滿效能”

AI 算力的高效釋放,需要“芯片發動機”“系統公路”與“工具鏈交通規則”的協同。過去一年,英特爾與龍蜥的技術共建集中在這三大方向:

第六代至強適配:不止能用,更要“榨乾”性能

2025 年發佈的第六代至強處理器,針對不同 AI 場景做了細分設計:Granite Rapids 主打高密度計算,適配金融風控、科學計算等強性能需求;Sierra Forest 聚焦雲原生大規模部署,優化能效比以降低雲廠商運營成本。“我們的芯片設計貼合場景化需求,而龍蜥操作系統能精準匹配這種特性,讓硬件能力不浪費。”英特爾技術專家説。

為讓硬件性能充分釋放,雙方完成了兩項關鍵優化:

  • 全鏈路適配:覆蓋龍蜥操作系統 5.10 長期支持版與 6.6 最新特性版,同時完成主流虛擬化平台定製,為 Granite Rapids 開發“大內存調度補丁”,支持 2TB 以上內存以滿足 AI 訓練需求;
  • 突破多核瓶頸:針對新一代處理器近 128 核的硬件特性,重構龍蜥操作系統多核調度算法,通過“專屬緩存分配”減少核心資源爭搶,優化內存頁表管理實現有序讀寫。

這些優化最終讓 Granite Rapids 在多線程任務中性能較上代提升顯著。“性能提升是企業能切實感受到的變化,這是軟硬件協同的價值。”英特爾技術專家表示。

下一代硬件預研:提前3個月適配,消除“空窗期”

為解決企業“硬件到位、系統未就緒”的痛點,雙方採用“提前佈局”策略。英特爾下一代至強 6 Plus 服務器(代號 Clearwater Forest)尚未上市,2025 年 Q2 已聯合龍蜥啓動適配。“企業採購硬件投入大,我們把適配週期提前,就是要讓客户拿到硬件就能開機測試,這符合龍蜥社區‘開箱即用’的理念。”英特爾技術專家表示。

異構工具鏈:oneAPI+OpenVINO,降低開發門檻

AI開發者常受困於“硬件異構”——為 CPU 寫的代碼無法直接在 GPU、NPU 上運行,重複適配耗費大量精力。英特爾與龍蜥的解法是構建“統一工具鏈”。“開發者的核心價值是優化 AI 模型精度,不是做硬件適配的‘翻譯官’。”英特爾技術專家直言,“oneAPI 和 OpenVINO 的融合,就是要把硬件差異藏在工具鏈裏,讓一套代碼跑通所有設備。”

  • oneAPI 統一開發框架:基於 LLVM 擴展異構編譯能力,搭建設備抽象層,一套代碼可調用不同硬件能力;該平台支持多種編程語言,包括 C++、Python、Fortran 等,使得 AI 模型的訓練和推理能夠在不同計算架構上高效執行。
  • OpenVINO 工具鏈即插即用:與龍蜥操作系統深度集成,簡單命令即可部署,為雲端和邊緣計算環境中的 AI 推理任務提供優化方案,進一步降低 AI 部署的計算成本,提高 AI 模型的執行效率。

“我們的目標是讓開發者聚焦模型優化,而非硬件適配。”英特爾技術專家表示,這正是“軟件定義、硬件賦能”的核心體現。

生態共建:讓算力生態“活起來”

技術落地離不開生態支撐。作為龍蜥社區副理事長單位,英特爾從社區治理、資源支持、國際化聯動三方面推動生態發展:

首先是深度參與社區治理。英特爾並非單純的“硬件供應商”,而是深度參與龍蜥社區底層建設:如主導 X86 架構優化的 Arch SIG 項目,制定至強處理器在龍蜥操作系統上的性能基準測試體系;參與《國產服務器操作系統發展報告(2025)》中核心章節的撰寫;推動龍蜥社區加速國際化等。“開源社區要靠核心廠商帶頭做實事,這是我們作為副理事長單位的責任,也是為了讓龍蜥生態更有技術厚度。”英特爾技術專家説。

其次是開放資源、降低參與門檻。為解決中小企業“缺硬件、缺技術”的問題,英特爾向龍蜥社區開放測試硬件,開展聯合測試並輸出技術文檔、聯合報告。阿里雲技術專家補充:“我們會把測試成果轉化為雲平台最佳實踐,幫客户少走彎路。”

最後是國際化經驗反哺。依託在 Linux Foundation、CNCF 的經驗,英特爾幫助龍蜥優化內核補丁流程,深度參與 X86 架構補丁審核;並推動龍蜥開發者參加全球開源峯會,加強國際化交流等。

機密計算:用“硬件鎖+開源鑰匙”守護數據安全

AI 時代的核心矛盾是“數據需流動產生價值,卻怕流動中泄露”。英特爾與龍蜥的解法,是從硬件隔離到開源方案的全鏈路防護。

英特爾從硬件層面構建安全底座,核心依賴兩大技術,其原理均通過硬件隔離實現數據防護。“機密計算的核心是‘硬件可信’,軟件再安全,硬件被突破就沒用。”英特爾技術專家解釋,“TDX 和 SGX 就是從芯片層面給數據加‘鎖’,讓安全成為硬件原生能力。”

  • TDX(可信域擴展):在至強芯片中創建“隔離執行域(TD)”,即使系統內核被攻擊,TD內的內容也無法被訪問,內存數據通過內存控制器實時加密,僅硬件才能解密;
  • SGX(軟件防護擴展):針對輕量級場景在內存中劃分“加密區(Enclave)”,僅授權代碼可訪問,其他進程即使獲取內存地址,看到的也只是亂碼。

為讓龍蜥操作系統適配這些能力,英特爾在系統內核中集成 TDX 和 SGX 驅動並由硬件實現 AES-GCM 加密協議,確保安全防護不影響性能。

此外,基於硬件底座,阿里雲在龍蜥社區推出 Confidential AI 開源方案,整合 TDX 安全能力、遠程證明服務與密態存儲/網絡能力,降低企業使用 TDX 機密計算的門檻。“英特爾的硬件是‘安全地基’,我們的工作是在地基上搭好‘房子’,讓企業不用自己打地基就能用。”阿里雲技術專家説,“目前龍蜥社區 Confidential AI 開源方案已落地阿里雲異構機密計算實例,並正與消費電子、智能駕艙客户合作。”

為推動行業規範,雙方在標準化工作上已取得明確進展。阿里雲技術專傢俱體介紹:“以 Confidential AI 為技術基礎,阿里雲已聯合 30 多家合作伙伴牽頭編寫 CCSA AI 數據安全的標準化架構與技術實現方案,重點覆蓋 AI 推理和訓練兩大核心場景,目前這項工作已進入實質推進階段。”

國際標準的佈局也在同步展開,他補充道:“我們計劃以 CCSA 的標準化成果為基礎,在 12 月初日內瓦舉行的國際電信聯盟 ITU-T SG17 分論壇上,推動該標準的國際版本立項。這將形成一個良性閉環——開源解決方案為標準化提供了可落地的技術參考,而標準化規範又能為開源方案的合理性和通用性提供背書。”

在他看來,這種聯動恰好體現了核心價值:“商業需求驅動開源方案迭代,開源方案支撐標準化落地,標準化又反過來賦能商業推廣,三者不是孤立的,而是循環共生的關係。”

未來方向:AI 原生時代的多元協同

在 2025 龍蜥大會上,雙方集中展示了第六代至強與龍蜥操作系統的性能優化成果、Confidential AI 落地進展及 Clearwater Forest 適配情況,同時釋放 AI 原生時代的算力發展方向。

“AI 原生算力靠‘芯-OS-雲-AI’協同。”英特爾技術專家透露規劃:硬件上,下一代至強將進一步強化 AI 與安全能力;系統上,將聯合龍蜥開發 AI 任務調度器,優化資源分配效率;場景上,將針對隱私敏感場景推出通用部署方案。

對企業而言,這意味着未來使用 AI 將更簡單:依託“英特爾硬件+龍蜥操作系統”的組合,無需自行解決適配、優化與安全問題,即可直接獲得高效且安全的算力支撐。隨着龍蜥大會的召開,這套“硬件底座+開源生態”的方案,將成為企業 AI 落地的核心選擇。

—— 完 ——

user avatar
0 位用戶收藏了這個故事!

發佈 評論

Some HTML is okay.