這個list僅提供參考,賽題二是一個較為開放的命題,範圍並不限於下文所提到的方向。本文檔用於幫助參賽選手快速查找並選擇適合的賽題方向與對應的 Issue。 所有任務均需以 Issue + PR 的形式提交,且 PR 必須引用對應的 Issue(例如在對應issue評論PR的link),方可計入有效成果。
文檔類賽題(Documentation Track)
適合對系統架構、軟件安裝、運行指南、生態兼容性分析等方向感興趣的參賽者。
|
序號
|
賽題名稱
|
Issue / 倉庫
|
簡介
|
|
1
|
示例:MinerU 上游社區支持 MACA 的使用文檔 (選手可參考) |
GPUApps #1 |
在 MinerU 上游倉庫編寫並驗證 MACA 3.0 環境下的安裝與使用指南
|
|
2
|
MACA 軟件棧開發環境配置説明
|
(待創建) |
編寫基於 MACA 環境的開發配置與調試指南
|
|
3
|
InfiniCore 算子開發文檔整理
|
(待創建) |
對 InfiniCore 項目中算子適配 MACA 的過程進行文檔化説明
|
|
4
|
MACA 插件生態兼容性報告
|
(待創建) |
對 MACA 與主流深度學習框架插件(PyTorch、TensorRT 等)的兼容性進行調研與文檔總結
|
|
5
|
分佈式推理環境搭建與驗證指南
|
(待創建) |
整理基於多 GPU 的推理部署方案,輸出安裝與性能驗證手冊
|
|
6
|
Kernel Library 重構方案説明
|
GPUKernelContest #12 |
針對內核拆包(packaging split)方案編寫技術説明與 RFC 跟蹤文檔
|
|
7
|
自主選題:文檔貢獻與改進
|
(開放類) |
參賽者可在任一公開 Issue 中選擇合適主題(如文檔補充、優化等),經賽題組確認後即可作為正式參賽方向
|
代碼類賽題(Code Implementation Track)
適合有一定編程經驗的選手,聚焦模型遷移、算子適配、性能優化等方向。
|
序號
|
賽題名稱
|
Issue / 倉庫
|
簡介
|
|
1
|
InfiniCore 算子遷移至 MACA 軟件棧
|
GitHub: InfiniCore #TASK |
將部分 CUDA 算子遷移至國產 MACA 軟件棧,提升兼容性與性能
|
|
2
|
vLLM 模型適配至 MACA 平台
|
MACA #7 |
完成 vLLM 在國產算力平台上的遷移、驗證與性能優化
|
|
3
|
修復平台 topksoftmax CPU 版本運行錯誤
|
InfiniCore #528 |
定位並修復在平台上 topksoftmax 算子 CPU 版本的運行錯誤,驗證修復後在不同平台下結果一致性,提升國產算力兼容性與穩定性
|
|
4
|
AI4S 前沿論文復現與加速實現
|
(待創建) |
選擇 AI for Science 領域論文,復現並在國產算力上加速運行
|
|
5
|
單 Transformers 模型遷移到 vLLM / SGLang
|
(待創建) |
將主流 Transformers 模型遷移至 vLLM 或 SGLang,在國產算力平台上實現可運行與性能優化
|
|
6
|
LMDeploy 模型適配遷移
|
(待創建) |
參考 LMDeploy 的模型適配方案,擴展未支持模型類型在國產算力平台上的運行能力
|
|
7
|
JAX 模型遷移至 PyTorch 生態
|
(待創建) |
將 JAX/Flax 等框架模型遷移至 PyTorch 生態,實現訓練與推理功能對齊
|
|
8
|
CUDA AI 軟件遷移至國產 MACA 棧
|
(待創建) |
將 CUDA AI 開源軟件遷移至國產 MACA 軟件棧,實現算子與框架兼容
|
|
9
|
其它有價值的模型或算子遷移
|
(待創建) |
聚焦具有科研或工程價值的模型遷移任務,以最終審核結果為準
|
生態類賽題(Ecosystem Contribution Track)
適合對上游開源生態建設、社區貢獻感興趣的選手。可通過提交 PR 至開源項目上游倉庫完成任務。
|
序號
|
賽題名稱
|
Issue / 倉庫
|
簡介
|
|
1
|
參與 InfiniCore 社區上游貢獻
|
InfiniCore 主倉庫 |
完成算子遷移或優化,提交 PR 至主倉庫
|
|
2
|
參與 MACA 組織上游貢獻
|
MACA 主倉庫 |
支持國產算力平台生態擴展,貢獻文檔或代碼實現
|
|
3
|
vLLM Kernel 模塊拆分與打包重構
|
vLLM #12 |
討論並實現 vLLM項目中內核模塊的結構化拆分與獨立打包,以減少構建時間、優化依賴關係、提升項目可擴展性,促進國產算力生態的維護與發展
|
|
4
|
InfiniCore 上游貢獻與算子遷移
|
主倉庫遷移案例參考 |
參考 InfiniCore 倉庫算子遷移案例,完成國產化遷移與驗證
|
|
5
|
FlashMLA 項目參與與適配
|
(待創建) |
參與 FlashMLA 等高性能推理框架的國產化遷移與適配
|
其他潛在方向(可自擬題)
|
序號
|
賽題名稱
|
Issue / 倉庫
|
簡介
|
|
1
|
國產 AI 基礎設施自主化探索
|
(待創建) |
聚焦國產 AI 基礎設施自主化與軟硬件協同優化
|
|
2
|
生態集成與性能評測
|
(待創建) |
針對多個項目的適配成果進行統一測試、性能分析與可視化報告輸出
|
參賽者也可提出新的賽題方向,需經組委會審核後列入正式評審範圍:
- FlashMLA 模型或框架遷移;
- 將 JAX 模型遷移至 PyTorch 生態;
- 將 CUDA AI 開源項目遷移至 MACA 軟件棧;
- 其他具有生態價值的優化或適配方向。
注意事項與建議
- 所有提交需遵循 TASK_INTERPRETATION.md 中的流程;
- 推薦每個 PR 只對應一個主要 Issue;
- 若上游倉庫為 GitHub,請保持與社區開發者積極溝通,確保合併成功;
- 所有被上游倉庫合併的有效貢獻將計入評分;
- 建議在提交後保持跟進,補充文檔或測試説明。
結語
子賽題二鼓勵所有參賽者積極參與國產算力生態建設,通過真實的上游貢獻推動 MACA、InfiniCore、MinerU 等開源社區協同發展。
無論是文檔編寫、模型遷移還是算子優化,每一次有效的貢獻,都是推動國產 AI 生態自立自強的重要一步。
歡迎大家踴躍參與,共同建設開放、可持續的國產 AI 開源生態!