博客 / 列表

mob64ca12ee2ba5 - llama微調中output為數組json格式

在進行Llama微調的過程中,我遇到了一個比較棘手的問題——輸出結果為數組的JSON格式。在解決這一問題的過程中,我逐步梳理了環境配置、編譯過程、參數調優、定製開發、調試技巧和進階指南等幾個方面的解決方案,下面將詳細記錄這個過程。 環境配置 在開始之前,首先需要配置好環境。以下是我為Llama微調所需的依賴版本信息: 依賴項 版本

複雜度 , 虛擬環境 , aigc , 環境配置

mob64ca12ee2ba5 - ollama 內存不釋放

在使用 Ollama 進行大規模模型推理時,我們受到了一種困擾——“ollama 內存不釋放”問題。這個問題不僅減緩了系統的響應速度,還可能導致服務崩潰,影響業務的連續性。 問題背景 在實際生產環境中,Ollama 被廣泛用於 NLP 任務,如文本生成與翻譯。我們的一位用户在使用 Ollama 時,發現每次調用模型後,內存使用量不斷上升,最終導致系統中斷。他描述道:

內存管理 , aigc , memory , ci

mob64ca12ee2ba5 - langchain_chroma加載本地collection

langchain_chroma加載本地collection是一項需要進行細緻配置與調試的任務。在這篇博文中,我將以覆盤的方式記錄下整個解決過程,以便後續參考和學習。 環境準備 首先,我們需要確保環境準備就緒。這包括安裝必要的依賴項以及配置集成的環境。 前置依賴安裝 確保你的環境中安裝了以下依賴: Python 3.8+ LangChain Chr

加載 , aigc , 環境搭建 , Python

mob64ca12ee2ba5 - postman 測試ollama

在現代軟件開發中,Postman 常被用來測試 API 接口,並與不同的 AI 框架和服務進行集成。最近,我在使用 Postman 測試 Ollama 時遇到了一些問題,本文將詳細記錄我如何解決這些問題的過程,包括背景定位、參數解析、調試步驟、性能調優、最佳實踐和生態擴展方面的內容。 背景定位 在開發和測試過程中,利用 Postman 來驗證 Ollama API 的正確性和性能

API , postman , 響應時間 , aigc