LlamaFactory 是一個功能強大、易於使用的大語言模型微調框架。

LlamaFactory 是一個 “一站式”的大模型微調工具包。它基於 PyTorch 和 Hugging Face 生態系統構建,提供了統一的接口和豐富的優化策略,極大地簡化了從準備數據到訓練模型、再到評估部署的整個微調流程。

LlamaFactory 優點:

  1. 極其簡便易用
  • Web UI 界面:提供了類似 ChatGPT 的圖形化界面,你可以通過點擊和填寫表單來完成模型訓練,幾乎不需要寫代碼。
  • 命令行接口:對於高級用户,也提供了完善的 CLI 工具,方便集成到自動化流程中。
  • 統一配置:通過一個 YAML 或 JSON 配置文件,就能管理所有訓練參數、數據路徑和模型設置。
  1. 廣泛的模型支持
  • 支持幾乎所有主流的開源大模型家族,包括:
  • LLaMA & LLaMA-2
  • Mistral & Mixtral
  • Qwen(通義千問)
  • Baichuan(百川)
  • ChatGLM
  • Gemma
  • Phi
  • ... 以及更多。
  1. 高效的訓練技術
  • LoRA / QLoRA:核心支持。QLoRA 允許你在單張消費級顯卡(如 RTX 3090/4090)上微調大型模型(如 70B),極大地降低了硬件門檻。
  • 梯度檢查點、混合精度訓練:進一步優化顯存和訓練速度。
  • FSDP:支持多卡分佈式訓練,充分利用硬件資源。
  1. 豐富的訓練方法
  • 監督微調:最常用的方法,用於指令遵循、對話等任務。
  • 獎勵模型訓練:為 RLHF 流程準備。
  • PPO 訓練:實現強化學習微調。
  • DPO 訓練:一種更高效、穩定的直接偏好優化方法。
  1. 強大的數據處理能力
  • 支持多種數據格式(JSON, JSONL, CSV等)。
  • 內置了對話、指令、文本補全等多種數據模板。
  • 可以輕鬆地將你自己的數據轉換成模型可接受的格式。