tag 混合精度

標籤
貢獻1
1
12:44 PM · Nov 23 ,2025

@混合精度 / 博客 RSS 訂閱

mob64ca1417eedd - [大模型] LLaMA系列大模型調研與整理-llama/alpaca/lora(部分)

目錄 1. Mixture-of-experts (MoE) 1.1 優勢 1.2 結構 1.3 訓練 2. Low-rank adaptation (LoRA) 3. 數的精度 -- 混合精度 + 量化操作 Task1:DenseMLPWithLoRA 一、任務背景 二、任務要求 Task2:Sparse ML

混合精度 , DenseMLP , Css , LoRA , 混合專家模型 MoE , 大模型 , 前端開發 , HTML

收藏 評論