在 DGX Spark 上使用 Ollama 打開 WebUI
Open WebUI 是一個可擴展的、自託管的 AI 界面,完全離線運行。本期我們將展示如何在 DGX Spark 設備上部署集成 Ollama 服務器的 Open WebUI,然後通過本地瀏覽器訪問 Web 界面,同時模型在 DGX Spark 上運行。 1. 配置 Docker 權限 從 NVIDIA Sync 打開終端應用程序,啓動交互式 SSH 會話並測試 Docker 訪問權限,在終端
Open WebUI 是一個可擴展的、自託管的 AI 界面,完全離線運行。本期我們將展示如何在 DGX Spark 設備上部署集成 Ollama 服務器的 Open WebUI,然後通過本地瀏覽器訪問 Web 界面,同時模型在 DGX Spark 上運行。 1. 配置 Docker 權限 從 NVIDIA Sync 打開終端應用程序,啓動交互式 SSH 會話並測試 Docker 訪問權限,在終端
近期我們的技術小夥伴對 NVIDIA RTX™ GPU 在 Houdini 中的渲染表現進行了詳細的測試,本次測試共選用 6 張 GPU,分別測試每張 GPU 在大、中、小三個場景中的性能表現,並將同級別的 NVIDIA Ada Lovelace 架構 GPU 與 NVIDIA Ampere 架構 GPU 進行對比分析,為大家更直觀地呈現 GPU 性能提升。 測試環境 測試場景 從左到右依次為
近期評測組對 NVIDIA RTX™ GPU 在Siemens NX中的性能進行了詳細的測試,本次測試共選用6張 GPU,測試每張 GPU 在 Siemens NX 軟件中導入模型速度、有限元分析時長、渲染視口流暢度等應用環節的性能表現。 測試環境 測試項目 1. 數模導入的加載時間 在此測試項目中,我們選用一個643MB的總裝數模,從測試結果可以看出,在數模導入過程中,GPU 的利用率基本拉
零售行業正在探索應用 AI 升級客户體驗,同時優化內部流程。面對多重應用場景以及成本優化壓力,團隊可採用成本相對可控的方案,來應對多重場景的前期項目預演和落地,避免短期內大規模投入造成的資源浪費。 客户體驗 AI 場景的研究目前集中在AI 客服,內部流程主要是AI 營銷、合同生成、合規審查和供應鏈優化等。在項目研究和前期預演階段,採用NVIDIA RTX™ 系列的高性能GPU,進行本地化部署大模型
遊戲市場正在不斷開發出新的場景需求,遊戲開發團隊在傳統業務之外也都在打磨新的工作流,來應對高質量的遊戲製作任務和短平快的 AI 遊戲。這不可避免地涉及到生產力工具 GPU 的升級,而團隊都希望“花小錢,辦大事”,用一套高性價比的方案支撐起多元的應用場景和不同的工作流。 但目前 GPU 架構正在迭代,AI 工具、VR/AR 工具又以百花齊放的姿態不斷涌現出來,對於遊戲開發團隊做 GPU 採購(一種中
交通行業的 AI 應用場景目前主要涵蓋交通公共服務體驗優化、汽車等交通工具的智能化升級和物流的智能化轉型。大部分應用場景仍在項目實驗階段。此階段需要有效地平衡項目需求、成本和開發效率。 在項目預演階段中,通常小規模算力就可以滿足需求。此階段主要是對模型的可行性、架構設計的合理性以及算法的有效性進行初步驗證,此時模型規模相對較小,參數數量和複雜度都處於較低水平。 例如,在構建一個簡單的文本分類預演模
能源產業智能化升級在加速,工程設計等應用場景中的工具、技術路徑等發生了一些改變,同時 GPU 也在更新迭代,從過去大家所熟知的 NVIDIA Turing™架構、NVIDIA RTX™Ampere 架構,已進階到 NVIDIA Ada Lovelace 架構,算力已不可同日而語。鑑於很多朋友在選型新架構 GPU 的時候經常有疑惑,我們這裏給大家整理了工程設計場景中的一些 GPU 適配建議。 1、3
2025年4月29日凌晨,阿里巴巴正式發佈新一代大語言模型 Qwen3,以“混合推理”為核心,在性能、成本、靈活性三大維度實現跨越式突破。 贊奇也立刻着手使用8卡 H20 141GB 進行本地化部署,預計在五一節後發佈Qwen3的併發測試報告,看看其實際應用體驗究竟如何。 關注並私信即可優先獲取測試報告! Qwen3模型介紹: Qwen3-235B-A22B 是一個大型模型,總參數量達2350
5月8日,聯想在上海舉辦中國合作伙伴大會。贊奇科技作為聯想ISV核心生態夥伴之一,正式發佈“贊奇AIKnow智能體工作站”。該方案深度融合聯想工作站與贊奇AIKnow智能體開發平台,實現軟硬協同,為企業提供開箱即用的AI開發解決方案,大幅降低智能體部署門檻。 贊奇AIknow是由贊奇科技開發的一站式無代碼智能體開發平台,通過整合主流的大語言模型(如Qwen、DeepSeek、ChatGLM等)、
近期我們的技術小夥伴研究並部署了一個基於 Dify 工作流,融合 FLUX 生圖模型、多模態識別模塊以及語音合成與播放功能,構建了一個智能內容生成鏈路。 通過 Dify 工作流流程編排與低代碼擴展能力實現跨模態的任務(文本輸入-語義理解-圖像生成-語音輸出)。這個工作流同時可以本地化部署至贊奇AI一體機,形成一套安全可控、開箱即用的軟硬件一體交付方案。 完整工作流鏈路 下面我們會從硬件配置
自 DGX Spark 發佈以來,這段探索之路挑戰與收穫並存。在成功完成軟件移植的攻堅後,我們決定將這段時期的實戰經驗系統梳理,轉化為一份關於模型選擇與性能優化的實用指引,希望能助力更多團隊高效利用 DGX Spark。 模型選擇策略:效率與性能並重 經過充分測試,我們發現不同模型在 DGX Spark 平台上的表現存在明顯差異。 以下是我們的具體推薦: 文本生成模型首選: gpt-oss-20b
上期我們講解了如何在該平台部署 Isaac Sim,本期我們將着手搭建本地 ComfyUI 工作流。無需上雲,在本地即可完成所有圖像的編輯和生成。 1.驗證系統先決條件 預期輸出應顯示 Python 3.8+、可用的 pip、CUDA 工具包和 GPU 檢測。 2.創建 Python 虛擬環境 通過檢查命令提示符顯示來驗證虛擬環境是否處於活動狀態(comfyui-env)。 3.安裝支持 C