收藏 / 列表

未聞花名AI - 構建AI智能體:十六、構建本地化AI應用:基於ModelScope與向量數據庫的文本向量化

將文本轉換為向量(文本嵌入)是自然語言處理中的核心任務,有許多大模型可以完成這項工作。上一篇文章《構建AI智能體:十五、超越關鍵詞搜索:向量數據庫如何解鎖語義理解新紀元》我們是通過阿里雲的api調用的text-embedding-v4模型,同樣還有很多其他輕量級的模型可以很好的完成這個任務,我們今天找兩個結合前期講到的本地化部署來嘗試一下。 一、核心組件回顧

yyds乾貨盤點 , 搜索 , NLP , 相似度 , 加載 , 人工智能

mob64ca12d42833 - anaconda 安裝stable_baselines3

以下是關於“anaconda 安裝stable_baselines3”的詳細記錄: 在進行強化學習相關研究或項目時,我發現 stable_baselines3 是一個非常有用的庫。它提供了許多強化學習算法,可以幫助我們快速實現和測試各種模型。然而,安裝這個庫時涉及到的一些步驟讓我花費了一些時間。在這裏,我記錄下整個過程,以便後續參考。 環境準備 在開始安裝 stable_ba

User , aigc , ci , Python

mob649e8167c4a3 - modelscope 運行 llama

modelscope 運行 llama 的問題,是在進行大規模深度學習模型實驗時我所遇到的一個技術挑戰。本文將詳細記錄解決這一問題的思路和過程。 首先進行業務場景分析,我們的主要目標是使得模型能夠在不同的環境下高效而準確地運行。基於此,我繪製了一張四象限圖,以展示團隊在技術債務的分佈情況,幫助識別優先級和影響力的關係。 quadrantChart title 技術債務分佈

優先級 , aigc , 基礎設施 , 迭代

mob649e815ddfb8 - llama3如何在win下漢化

llama3如何在win下漢化的過程描述 在如今高度依賴人工智能應用的時代,用户常常需要將各種工具和模型本地化,以更好地適應自己的需求。比如,llama3這款在文本生成領域表現優異的模型,用户們希望在Windows環境下進行漢化,以便更便利地使用英文模型完成中文任務。在這個過程中,用户通常面臨許多挑戰,包括字符編碼不兼容、語言轉化工具匱乏以及模型輸出的準確性等等。接下來,我們將詳細描

User , windows , aigc , ci

mob64ca12d8c182 - deepseek code v2 多模態

深度學習在計算機視覺中的應用越來越廣泛,而“deepseek code v2 多模態”作為重要的框架,在處理多種數據形式時表現出了其強大的能力。本文將詳細記錄解決“deepseek code v2 多模態”問題的整個過程,涵蓋版本對比、遷移指南、兼容性處理、實戰案例、排錯指南及生態擴展等六個部分。 版本對比 對比不同版本的“deepseek code v2 多模態”,我們可以看到

數據 , aigc , 模態 , 代碼示例

mob64ca12d1a59e - mac docker 安裝 langchain

為了幫助大家在 Mac 上通過 Docker 安裝 LangChain,本文將詳細介紹整個過程,包括環境準備、分步指南、配置詳解、驗證測試、優化技巧以及排錯指南。無論你是新手還是有經驗的開發者,希望這篇文章能夠全面指導你完成安裝。 環境準備 在進行我們的安裝之前,有一些前置依賴需要準備好。這裏我們將以表格的形式列出版本兼容性矩陣。 組件

bash , aigc , Docker

mob64ca12e732bb - 二次封裝elementui plustable

在現代前端開發中,將框架組件進行“二次封裝”是一項常見的需求,旨在提高代碼的複用性和可維護性。本文將重點介紹如何實現element-ui中的plustable組件的二次封裝,涵蓋環境準備、集成步驟、配置詳解、實戰應用、排錯指南以及性能優化等模塊。 環境準備 首先,確保您擁有正確的開發環境。對於使用element-ui和plustable的項目,您應該使用以下依賴: | 依賴

性能優化 , 封裝 , aigc , ci

mob649e8166179a - ollama 跑雙顯卡的原因不跑GPU

ollama 跑雙顯卡的原因不跑GPU 在當今的深度學習和人工智能應用中,使用雙顯卡的配置可以極大地提升模型訓練和推理的性能。然而,許多用户在使用 ollama 時,發現儘管配置了雙顯卡,卻仍然無法有效利用 GPU。本文將深入探討這個問題的背後原因,並提供解決方案。 背景定位 適用場景分析,人們希望在高性能計算任務中充分利用硬件資源,尤其是在進行深度學習模型訓練時,雙顯卡的配

性能需求 , aigc , 深度學習 , CUDA

mob64ca12dc88a3 - langchain router 語義路由

在當今的信息技術領域,langchain router 語義路由已經成為一種頗具盛名的工具,其在自然語言處理和數據處理任務上提供了強大的能力。本文將通過系統性的結構來詳細記錄如何解決相關問題,從環境預檢到擴展部署,確保實現高效的語義路由系統。 環境預檢 首先,通過思維導圖來梳理需要的相關環境與硬件構成,確保所有組件能夠正常協同工作。 mindmap root((環境預檢)

服務器 , API , bash , aigc

mob64ca12f062df - ollama 限制大模型使用gpu

ollama 限制大模型使用gpu 在我最近的項目中,我遇到了一個關於“ollama”限制大模型使用 GPU 的問題。這對於任何需要高性能計算資源的深度學習應用來説,都是一個棘手的障礙。本文將詳細記錄解決這一問題的過程,從背景描述到技術原理,再到架構解析和代碼分析,力求清晰呈現整個解決思路。 背景描述 首先,讓我們瞭解一下該問題的背景——為何會出現“ollama”限制大模型使

aigc , Processing , ci , Python

mob64ca12dedda8 - ollama Windows 怎麼使用GPU

在使用 Ollama 進行開發時,許多用户希望能夠利用其強大的 GPU 加速能力,尤其是在 Windows 操作系統上。然而,很多人可能會發現實現這一點並不那麼簡單。本文將詳細記錄如何解決“ollama Windows 怎麼使用GPU”這一問題,包括使用GPU的背景,可能遇到的錯誤現象,根因分析,具體的解決方案,以及後續的驗證和預防措施。 問題背景 在近年來的開發中,隨着數據處理

驅動程序 , aigc , 解決方案 , CUDA

mob64ca12edea6e - ollama下載的權重文件在何方

ollama下載的權重文件在何方 在使用ollama這款生成模型工具時,許多用户會遇到一個常見的問題,就是如何找到下載的權重文件。下面我們將一步步梳理出解決這一問題的全過程。 環境準備 在開始之前,我們需要確保有一個合適的環境來運行ollama。首先,確保你的計算機或服務器上已經安裝了以下前置依賴。 操作系統:Linux (Ubuntu 20.04 以上), ma

權重 , aigc , Docker , Python

mob64ca12ebf2cc - AIGC提示詞工程樣本

AIGC提示詞工程樣本 在當今的信息技術行業,如何有效地應用AIGC(人工智能生成內容)提示詞工程顯得尤為重要。本文將通過系統化的步驟,展示如何解決AIGC提示詞工程樣本的問題。 環境準備 為了順利進行,我們需要先安裝必要的依賴。以下是跨平台安裝命令: # Ubuntu sudo apt-get install python3-pip # MacOS brew inst

API , aigc , JAVA , Json

網易雲信IM - 網易雲信與四川央國企共探產業升級新生態

近日,網易數智攜手川酒集團、虹信軟件共同赴成都蜀智雲鏈,舉辦了主題為“產業數字化轉型與採購場景技術升級”的交流會。此次活動不僅圍繞數字化轉型實踐、核心技術賦能以及生態協同發展展開深度對話,還特別安排了對蜀智雲鏈參與建設的分散評標場地的現場參觀,讓與會嘉賓實地感受該系統在分散評標招採場景中的落地效果。虹信軟件企業業務中心總經理袁仁東、川酒集團信息化部部長楊益、成都蜀智雲鏈科技總經理

音視頻 , 會議組件 , 數字化 , aigc , bard , 遠程異地評標 , 遠程異地評標會議組件

mob649e815574e6 - ollama ubuntu 開放API

ollama ubuntu 開放API 是一個強大的工具,可以幫助開發者快速集成並利用各種服務。本文將詳細介紹在 Ubuntu 中使用 Ollama 開放 API 的過程,包括環境準備、集成步驟、配置詳解、實戰應用、排錯指南和性能優化等方面。讓我們開始吧! 環境準備 在開始之前,我們需要確保環境中已安裝必要的軟件。以下是支持 Ollama API 的版本和相應的技術棧兼容性。

API , bash , aigc , Ubuntu

mob649e816138f5 - diffusion模型 gpu利用率低

在近期的項目中,我們觀察到“diffusion模型 GPU 利用率低”的問題。這直接影響了模型的推理速度和整體性能,必須通過深度分析和優化來解決這一問題。以下是我們針對這一問題的詳細記錄和解決方案。 用户原始需求 我們的用户希望能夠提升 diffusion 模型在 GPU 上的運行效率,以加速圖像生成和處理的速度,同時也期望能夠優化資源消耗。 演進

高負載 , aigc , 應用場景 , 解決方案

mob64ca12da726f - langchain mysql fastgpt

在本文中,我們將探討如何利用 LangChain 和 FastGPT 來與 MySQL 進行高效的數據交互和處理,展示出集成的整個過程。此外,我們會涵蓋性能優化及生態擴展的相關內容,幫助大家更好地整合這一技術棧,實現數據處理的高效性與靈活性。 環境準備 在開始之前,我們需要確保所有技術棧之間能夠完美兼容。以下是我們將使用的軟件及其對應版本: 技術

數據 , MySQL , aigc

yzy121403725 - MLOps

1. 定義與本質 MLOps 是一套將機器學習模型從開發(實驗)落地到生產環境,並實現全生命週期自動化、可觀測、可追溯的工程實踐體系。 核心目標:解決 “模型訓練出來能用,但上線難、維護難、迭代慢” 的痛點(比如傳統 ML 流程中,數據科學家訓練的模型,運維人員難以部署,且上線後數據漂移、模型性能下降無法及時感知)。 與傳統運維的區別:傳統運維聚焦

數據 , MLOps , aigc , llama , ML

mb68738fa1c4e31 - ? TRAE SOLO 3.0 實戰速通指南:在編程馬拉松中打造高分產品的五步策略?

🏆 TRAE SOLO 3.0 實戰速通指南:在編程馬拉松中打造高分產品的五步策略 🎯 引言:黑客馬拉松的評審維度 大家好,我是圍巾哥蕭塵,昨天參與了武漢 TRAE 黑客馬拉松的評審工作,本次活動有 80 多人蔘與,共產生了 40 多個產品,其中 20 個產品入圍了路演階段。 作為評審,我們主要從以下三個關鍵維度來評估作品的質量和潛力:

app , 功能結構 , AI寫作 , aigc

mob64ca12e51ecb - 如何搭建免費的Copilot

搭建免費的 Copilot:從問題到解決方案的全流程分析 在日常開發中,代碼助手工具如 Copilot 極大地提高了開發效率,幫助開發者減少了手動編碼的時間和精力。然而,商業版的 Copilot 費用不菲,因此很多開發者希望能借助免費工具或自建環境來實現類似的功能。接下來,我們將詳細講述如何搭建免費的 Copilot,涵蓋各個方面,從用户需求到實際操作,力求為大家提供一個完整的解決方

API , aigc , 解決方案 , 開發者