博客 / 列表

mob649e81637cea - 本地搭建ollama大模型rag

構建一個本地搭建 Ollama 大模型 RAG 的過程需要多個步驟,從環境準備到功能驗證,下面將詳細介紹這一過程,並希望能給想要搭建 Ollama 大模型 RAG 的開發者提供清晰的指南。 在開始之前,請確保您已經對此過程有所瞭解,並做好了充分的準備。 環境準備 首先,需要準備好合適的硬件和軟件環境才能順利搭建 Ollama 大模型 RAG。以下是前置依賴項的安裝和評估。

硬件資源 , aigc , Docker , Python

mob649e81637cea - 微調LLAMA腳本

微調LLAMA腳本是提升大型語言模型性能的重要手段。通過對預訓練模型進行定製化調整,可以使其在特定任務上表現得更加優異。以下是我在這個過程中整理的實用指南,涵蓋從環境準備到生態擴展的各個方面。 環境準備 在開始之前,我們需要確保構建環境的正確性和兼容性。不同的技術棧版本之間可能會存在一些不兼容的地方,因此需要注意下面的版本兼容性矩陣: 組件

技術棧 , aigc , 代碼示例 , Python

mob649e81637cea - langchain本地嵌入向量

本篇文章記錄的主題是“langchain本地嵌入向量”的應用和問題解決過程。在實際應用中,我們遇到了一些挑戰,包括向量的嵌入、處理及多人合作中配置的不一致性等,這些因素都可能影響整體性能。以下將詳細介紹解決這一問題的過程。 問題背景 在一個使用langchain實現嵌入向量的項目中,我們需要將文本數據轉化為向量以便進行後續的處理與分析。嵌入向量的計算量大且複雜度高,參與的人員需要

數據 , 依賴庫 , aigc , ci

mob649e81637cea - Ubuntu如何關閉ollama

在使用 Ubuntu 時,用户可能會遇到需要關閉 Ollama 這個程序的情況。Ollama 作為一個強大的本地 AI 模型託管工具,在某些情況下,用户可能希望將其停止運行,尤其是在進行系統維護或優化資源使用時。接下來,我們將詳細探討如何在 Ubuntu 系統上關閉 Ollama,包括問題背景、錯誤現象、根因分析、解決方案、驗證測試以及預防優化等幾個要素。 問題背景 在日常使用中

User , aigc , 解決方案 , Ubuntu