動態

詳情 返回 返回

InfoQ × GMI Cloud × IDC 直播回顧:AI 雲爆發的背後,AI 應用全球化勢不可擋 - 動態 詳情

摘要

IDC 最新報告指出,亞太 AI 應用正迎來全球爆發:到 2025 年,近 94% 企業將部署 GenAI,消費者使用率增至 30 %。焦點從模型訓練轉向大規模推理應用,催生對 AI 原生雲的需求。

AI 原生雲需高密度算力、超低延遲網絡。GMI Cloud 通過架構範式、服務模式、全球化壁壘,提供訓推一體解決方案,從“算力供應商”轉為“價值共創夥伴”。

下文為 InfoQ 直播回顧內容,來自於 InfoQ 資深編輯的總結。

近期 IDC 發佈了一份《AI 原生雲 / 新型雲廠商重構 Agentic 基礎設施》報告,報告中的調研數據顯示:87% 的亞太企業在 2024 年至少部署了 10 個 GenAI 場景,預計到 2025 年這一數字將上升到近 94%。此外,IDC 調查發現,亞太地區日常使用 GenAI 的消費者從 2024 年的 19% 增加到 2025 年的 30%,企業 GenAI 的採用率也激增,65% 的亞太區企業將有超過 50 個 GenAI 場景投入生產,預計到 2025 年,26% 的企業將擁有超過 100 個應用。IDC 預測,到 2028 年中等以上的規模企業當中,至少會有上百個智能體在運轉。

在此背景下,企業需要重新思考其 AI 基礎設施,是否足以應對即將到來的智能體協同時代。這場變革不僅關乎技術升級,更是一場關於商業模式、市場格局和全球戰略的深度博弈。

為了幫助更多 AI 從業者、企業決策者理解這份報告的核心內容,InfoQ 特別邀請了 IDC 中國研究總監盧言霞、GMI Cloud 創始人 & CEO Alex Yeh,從數據洞察與實戰視角拆解報告,解讀亞太地區 AI 基礎設施的新趨勢。

wxv_4221068572778659860

以下為經整理的直播內容精要。

01

需求爆發:AI 應用全球規模化催生“AI 原生雲”

AI 應用構建浪潮撲面而來,但技術棧深海處的「鏈式反應」,可能比表面熱浪更具顛覆性。

IDC 指出,自 ChatGPT 2022 年發佈以來,大型互聯網公司以及部分初創企業聚焦在大模型訓練,以期在基礎模型領域佔據市場領先地位。因此在 2022-2024 年間,AI 基礎設施的投資更多聚焦在模型訓練側。進入 2025 年,大模型的預訓練開始收斂,市場的焦點更多在於模型推理側,AI 推理專用基礎設施需求激增。

IDC 報告指出,在亞太市場, 2023 年只有 40% 的組織使用人工智能推理基礎設施,但在 2025 年,這一數字增長到 84%。這一數據標誌着 AI 產業正在從模型開發階段進入大規模應用落地階段。

這種變化一方面正在模糊傳統技術棧的界限,另一方面也催生出專為 AI 工作負載優化的新型雲服務——AI Native Cloud.

**什麼是 AI Native Cloud(AI 原生雲)?**IDC 報告裏定義:“需要同時滿足 GPU 高密度算力、超低延遲網絡、以及面向 GenAI 的編排與冷卻等需求”。

盧言霞分析道:“未來企業可能有多個智能體,成千上萬個智能體之間並行大規模交互,對分佈式算力和模型間傳輸的要求已經與傳統 AI 時代有很大不同。”更關鍵的是,從通用模型到行業定製化的轉型中,模型調優、RAG 推理環節的增加催生了訓推一體需求。

Alex 從技術角度分析了 AI Native Cloud 的核心技術壁壘:“首先是 GPU 集羣的高效調度能力。 比如在泰國、越南、馬來西亞等亞太區域間的算力調度,關鍵不在於硬件擴容,而是通過 K8s 等動態資源調配技術,將算力利用率穩定維持在 98% 以上。我們自研的 Cluster Engine 技術能在亞太四個節點間實時調度,甚至能利用時區差異 —— 當亞洲進入夜間時,美國客户可調用亞洲節點算力,讓整體利用率持續攀升。這種調度穩定性還能避免訓練任務中斷,原本 10 天的訓練週期可提前完成,這是高效調度能力的核心價值。

其次是算力的適配能力。 不同 AI 場景的算力需求差異極大:量化訓練的邏輯如同骨架般具有嚴格時序節點,需高算力密度支持,而視頻擴散模型或圖片處理可能用中低端顯卡就能完成。因此,能否打造統一框架適配多元場景至關重要。我們的第二個產品 Inference Engine 正是為此設計 —— 它打通硬件適配層,讓客户無需關注底層硬件,直接通過 API token 按調用量付費。不是按卡計費,而是根據文本、圖像、語音等不同模態動態調配算力,用靈活的算力資源支撐‘按 token 計價’模式,這是算力適配的核心邏輯。

再次是全鏈路的優化能力。 這正是 GMI Cloud 與傳統雲的差異所在:傳統雲僅提供‘多少張卡 + 多少存儲’的資源組合,而我們會做分散式推理架構設計,效率遠高於傳統方案。基於 Inference Engine 的模型調度能力,我們的模型吞吐率、TTFT(首 token 生成時間)等指標均優於傳統雲廠商 —— 這源於從模型側到硬件側的深度調優,不再是單純提供資源,而是將算力轉化為直接可用的模型服務接口。”

他進一步補充了三點關鍵技術洞察,闡釋了 AI Cloud 與傳統雲的根本區別:第一,架構範式轉變:從虛擬化到裸金屬。 Alex 指出,傳統雲廠商受制於過去二十年的虛擬化架構,通常以虛擬機形式提供算力。然而,AI 計算,尤其是訓練和低延遲推理,需要直接掌控底層硬件資源以避免虛擬化帶來的性能損耗。

Alex 提到與其他雲廠商合作時的體驗,“但現在 AI Native 的新創公司,常常會需要 BareMetal(裸金屬),因為需要控制到整個架構。” 這種對底層硬件的直接訪問和控制,對於實現極致的性能優化和穩定性至關重要。

第二,服務模式變革:從遠程支持到陪伴式服務。 AI 時代雲服務的深度正在發生本質變化。“我們服務了很多訓練類的客户,基本需要陪伴式服務,因為訓練集羣隨時可能出現各種問題”,Alex 描述道。這種 “長期陪伴的服務能力” 要求雲廠商的工程師團隊幾乎駐紮在客户現場,與客户共同調試和優化,這與傳統雲時代 “開個網站、基本不會壞” 的遠程、標準化服務模式截然不同。GMI Cloud 為此建立專屬 SLA 團隊,承諾 10 分鐘響應、1 小時問題診斷、2 小時系統恢復。

第三,核心競爭壁壘:全球化合規與運營。 這一點在當前的國際環境下顯得尤為關鍵。亞太地區數據法規碎片化,GPU 資源也相對搶手,這要求雲廠商不僅要在技術上過硬,還必須具備在全球複雜的地緣政治和監管環境中安全、合規運營的能力。GMI Cloud 已在亞太建立多個合規節點,通過本地化集羣 + 動態調度,滿足不同區域的合規與延遲需求。

這三項要求共同構成了傳統雲廠商轉型的壁壘。“很多傳統雲廠商或者 GPU 集羣供應商很容易被過去的架構給限制住,而不能提供給客户更敏捷的產品,”Alex 總結道。而這恰恰為沒有歷史包袱、從一開始就圍繞 AI 工作負載構建技術棧的新興雲廠商創造了巨大的市場機會,進而推動了 AI 雲廠商的快速崛起。目前 GMI Cloud 正持續推進 “AI Factory” 計劃,即將落地全亞洲最大的萬卡液冷 GB300 集羣,未來還將在東南亞、日本、中東、美國等區域佈局,以支撐超大規模算力需求等。

02

效能革命:從“算力供應商”到“價值共創夥伴”

任何技術的革新,最終落地到企業的視角,除了提效,能否節省成本則是技術選型的另一考核要素。

亞太地區 AI 企業普遍採用多雲策略,以規避供應商鎖定、追求最佳性價比或滿足數據本地化要求。然而,“算力資源分散在不同雲平台、管理規則與接口五花八門” 的局面,構成了一個巨大的 “隱性成本黑洞”。

盧言霞詳細剖析了其中的挑戰:“企業的管理成本變得非常高,這涉及到完全不同廠商的技術棧,它們的定價模式、服務水準協議(SLA)、技術支持方式都存在巨大差異。要實現這些異構技術棧的融合、保證不同平台間的兼容性,其整體的運營複雜度和成本是相當可觀的。”

她進一步指出了更棘手的數據問題 —— 生成式 AI 應用往往需要從多個異構數據源讀取數據。當企業設想一個核心智能體與內部成千上萬的其他智能體進行並行交互時,這些數據和系統可能分佈在不同的公有云、甚至私有的本地化基礎設施中,其間的數據同步與協同成為了巨大的工程挑戰。更關鍵的是,不同系統接口標準化程度低,多數定製開發系統接口不統一,進一步抬高了技術門檻。

面對這一行業痛點,Alex 闡述了 GMI Cloud 提供的 “統一算力納管” 解決方案:

  • **底層 GPU 硬件架構:提供高端 GPU 雲與裸金屬服務。**通過頂級生態協作獲取英偉達高端硬件資源,併為高性能和高控制權限要求的客户提供直接開放硬件層訪問的裸金屬方案,消除虛擬化損耗,適配泛互聯網、自動駕駛等對性能與控制權要求嚴苛的場景。
  • IaaS 層:Cluster Engine 平台。 基於 K8s 架構實現全球算力彈性調度,支持跨區域負載均衡與錯峯複用,資源利用率達 98%+,並通過可視化工具實現實時監控與智能管理。
  • MaaS 層:Inference Engine 推理引擎平台。 底層搭載 H200 芯片,集成 DeepSeek、Qwen 等近百個大模型,平台通過自研推理優化技術提升模型調用效率,提供統一 API 接口,支持文本 / 圖像 / 視頻多模態模型調用,實現 “按 token 用量付費” 的彈性服務。

三層架構的協同形成了完整的算力價值閉環:底層硬件提供性能基礎,Cluster Engine 實現資源高效流轉,Inference Engine 交付即用模型能力,最終幫助企業破解算力分散、管理複雜、成本高企等核心痛點。

除了多雲管理帶來的複雜度和成本挑戰,企業在算力投入上還面臨一個兩難困境:“前期投入巨大,但後期利用率難以保證,導致閒置率高企”。 盧言霞觀察到,這一問題在 2025 年上半年的中國市場尤為典型。“尤其是一些大型企業,之前投入了大量的一體機方案。在大模型浪潮爆發之前,中國市場對 AI 和 IT 的投入就比較重視算力基礎設施的採購,但往往未能與最終的應用場景和效率緊密掛鈎。”

傳統 AI 時代,企業 IT 投入中硬件常作為固定資產,但技術迭代快(如幾年前的芯片型號如今可能過時),加上 AI 應用未大規模落地,導致前期投入易形成浪費;而互聯網企業因業務波峯波谷明顯,新興 AIGC APP 試點新功能時,也不適合過早投入硬件,否則可能因功能未留存造成資源閒置。

針對這一核心痛點,Alex 分享了 GMI Cloud 給客户的方案。“GPU 的迭代速度正在變得越來越快,從過去的 5-6 年縮短到現在的 3 年甚至更短。技術迭代的加速意味着硬件貶值的風險急劇增加。因此,我們提供了 ‘Rent versus Buy’(租用而非購買) 的服務方式。客户可以與我們簽訂三年的合同,以租用的方式獲得頂尖的算力,並在合同結束後,可以根據需要輕鬆升級到最新的硬件,從而徹底避免了技術迭代帶來的資產貶值風險。” 這種模式對於現金流敏感的新創 AI 應用公司尤其具有吸引力,因為它將沉重的固定資產投入轉化為了靈活的運營成本。

Alex 強調:“這種深度合作模式也使得 GMI Cloud 與客户的關係從傳統的 ‘供應商 — 採購方’轉變為了 ‘戰略伙伴、共同成長’。”實際上,當 AI 算力需求從 “標準化採購” 轉向 “場景化定製”,傳統雲廠商 “賣算力資源” 的供應商模式也將發生改變。隨着 AI 基礎設施進入 “效果為王” 的深水區,雲廠商的競爭力不再取決於 “有多少算力”,而在於 “能為客户的每一分算力投入創造多少商業價值”。

03

市場轉向:“推理需求爆發”衍伸行業競合新趨勢

GenAI 場景應用的加速,除了帶來技術棧、需求、模式等變革外,也在深層次影響產業發展的風向和競爭格局。

報告數據顯示,95% 的亞太企業正在同時部署訓練和推理基礎設施。從行業分佈來看,泛互聯網、製造業和具身智能成為推理設施投入增速最快的三大領域。 其中,泛互聯網既包括傳統大型互聯網企業,也包含當下火熱的 AIGC 應用,特別是中國企業出海的重點方向 ——AI 社交、內容生成等 to C 應用;製造業則涵蓋高端器械、醫療器械、重工業設備等領域的出海企業,這些企業在海外建設智能製造工廠,帶動了大模型和 AIGC 應用需求;具身智能領域的機器人企業,無論是新秀還是老牌廠商,在 AI 推理算力基礎設施上的投入也呈指數級增長。

Alex 通過實戰觀察驗證了這一趨勢:“我們看到的最大需求來自泛互聯網,接下來是製造業。這些需求可以細分為三種模態:語音、視頻加圖像、文本。” 他進一步解釋道,語音包括語音轉換、呼叫中心、陪伴應用;視頻主要是電商領域,需大量圖像與視頻製作廣告素材;文本則是 Copilot、會議摘要等工具。

**技術應用層面,多模態融合正成為場景爆發的核心方向。**Alex 預判視頻領域將迎來 “DeepSeek 時刻”,B200 相比 H100 速度提升兩倍,原本生成 5 秒視頻需要耗時 30 秒,未來可能縮短至 400 毫秒,實現即時生成,這將徹底改變內容生產方式。另外,電商、影片生成、短視頻、動畫、廣告都是亞洲市場的熱門領域,龐大的用户基數與場景紅利,為 AI 技術提供了天然的試驗場與商業化土壤。而開源與閉源格局的變化更是降低了入場門檻 ,中尾部企業無需自建大模型,通過 Finetuning 即可快速落地場景。

**推理需求的快速增長,也帶動了 AI 基礎設施市場的競爭格局重塑。**傳統公有云廠商與 AI Cloud/GPU Cloud 新型雲廠商之間的市場份額變化呈現出明顯趨勢。盧言霞透露:“2024 年到 2025 年間,GPU Cloud 和新興雲廠商在整個生成式 AI 基礎設施市場上可能佔到 15% 左右的市場份額。不要小瞧這 15%,對基礎設施這麼龐大的市場來説已經是非常大的進展。”

**一個反常識的轉變也在發生:亞太市場的算力玩家們正在從 “零和博弈” 走向 “競合共生”。**Alex 提到,不同於傳統 IT 行業的 “要麼我賣進、要麼你賣進”,AI 賽道因算力普遍短缺,“合作潛力非常多,大家都不夠用,就互相借卡、租卡”,泛互聯網超大型企業、公有云甚至會與新興 AI 雲廠商合作,“他們不想持續砸錢買卡,直接向我們租,我們能在小地方快速建立集羣,速度比他們更快”。

這種資源互補的模式,打破了傳統市場的競爭壁壘,讓算力資源流動更高效,為中國企業提供了更多合作機遇,也為中企 AI 應用出海提供了更多的支撐。

對於計劃出海的中國 AI 企業,在直播最後,盧言霞給出了三點核心戰略建議:

第一,建立負責任的 AI 體系,“現階段對整個行業參與者非常重要”。隨着生成式 AI 能力增強,倫理風險、內容合規等問題已引發全球監管關注,頭部企業需優先構建全流程的 AI 治理框架,這不僅是准入門檻,更是長期信任的基礎;

第二,緊盯大模型能力進化,“大模型迭代快,要判斷哪些能力可能由大模型直接提供,無需開發工具重複投入”。避免在通用能力上浪費資源,聚焦行業定製化的差異化價值;

第三,重視 AI 專用基礎設施建設,“傳統 AI 時代企業對基礎設施重視不足,如今生成式 AI 廣泛部署,必須關注面向 AI 工作負載優化的基礎設施”,尤其是訓推一體、低延遲網絡等核心能力,這是業務落地的技術基石。

對中國企業而言,只有抓住推理市場新機遇,在性能、合規、成本間找到平衡點,才有機會在算力變革的浪潮中搶佔先機,從 “AI 應用追隨者” 穩步進階為 “區域規則的共建者”,進而在全球市場競爭中築牢優勢。

關於GMI Cloud

由 Google X 的 AI 專家與硅谷精英共同參與創立的 GMI Cloud 是一家領先的 AI Native Cloud 服務商,是全球六大 Reference Platform NVIDIA Cloud Partner 之一,擁有遍佈全球的數據中心,為企業 AI 應用提供最新、最優的 GPU 雲服務,為全球新創公司、研究機構和大型企業提供穩定安全、高效經濟的 AI 雲服務解決方案。

GMI Cloud 憑藉高穩定性的技術架構、強大的GPU供應鏈以及令人矚目的 GPU 產品陣容(如能夠精準平衡 AI 成本與效率的 H200、具有卓越性能的 B200 以及未來所有全新上線的高性能芯片),確保企業客户在高度數據安全與計算效能的基礎上,高效低本地完成 AI 落地。此外,通過自研“Cluster Engine”“Inference Engine”兩大平台,完成從算力原子化供給到業務級智算服務的全棧躍遷,全力構建下一代智能算力基座。

作為推動通用人工智能(AGI)未來發展的重要力量,GMI Cloud 持續在 AI 基礎設施領域引領創新。選擇 GMI Cloud,您不僅是選擇了先進的 GPU 雲服務,更是選擇了一個全方位的 AI 基礎設施合作伙伴。

如果您想要了解有關 GMI Cloud 的信息

請關注我們並建立聯繫

user avatar k21vin 頭像 u_15316473 頭像 huikaichedemianbao 頭像 lab4ai 頭像 rivers_chaitin 頭像 nixideshatanku 頭像 haijun_5e7e16c909f52 頭像 digitalocean 頭像 infodator 頭像 liudamao 頭像 easynvr 頭像 huggingface 頭像
點贊 19 用戶, 點贊了這篇動態!
點贊

Add a new 評論

Some HTML is okay.