博客 / 列表

極市平台 - 驍龍大賽-技術分享第三期乾貨彙總——答疑篇

Q1:GenieAPIService 調用本地NPU上的大語言模型時,對設備有什麼性能要求?內存或算力要達到什麼水平? A1: 目前,只要是驍龍AI PC,都能夠運行 GenieAPIService 調用本地 NPU 的大語言模型。市場上在售的驍龍 AI PC 都可以滿足模型運行的基本條件。至於內存需求,主要取決於想要運行的模型大小,以及系統本身在待機狀態下的可用內存。一般來説,如果運

觀點 , 資訊 , 教程 , 程序員 , 後端

極市平台 - 驍龍大賽直播乾貨彙總

上期課程中我們瞭解了在驍龍 AI PC 上使用 QAI AppBuilder 工具絲滑部署AI模型的核心方法,省流版教程: 用户指南: https://github.com/quic/ai-engine-direct-helper/blob/main/docs/user_guide.md 開源社區: https://github.com/quic/ai-engine-direct-helper 直

資訊 , 教程 , 開發 , 知識 , 後端

極市平台 - 手把手教你在移動端跑模型|驍龍AI大賽公開課三:QAI AppBuilder移動端實戰與跨平台模型部署工具教程

上期課程中我們瞭解了在驍龍 AI PC 上使用 QAI AppBuilder 工具絲滑部署AI模型的核心方法,省流版教程: 用户指南:https://github.com/quic/ai-engine-direct-helper/blob/main/docs/user_guide.md 開源社區:https://github.com/quic/ai-engine-direct-help

資訊 , 教程 , 知識 , 後端

極市平台 - 終端側AI實戰指南+QAI AppBuilder實戰教學+QAI AppBuilder移動端實戰與跨平台模型部署工具教程

驍龍AI大賽的直播中的問題和及答疑在此彙總 第一期 第一期中,高通技術公司的講師團隊帶來了終端側AI技術前沿與AI工具鏈解析,針對大家在開發過程中遇到的典型問題進行在線解析: 問:Qualcomm AI Stack 裏有沒有實用工具能提升模型在手機端的推理速度? 答:Qualcomm AI Stack工具鏈非常完善,無論是浮點模型(FP16)還是定點模型(INT4/8/16),都能靈活選擇不同量化

資訊 , 教程 , 知識 , 後端