tag llama

標籤
貢獻27
102
07:19 PM · Oct 26 ,2025

@llama / 博客 RSS 訂閱

chooseAI - 神了!Deepseek+mermaid的邏輯圖吊打國外的notion、napkin

目錄 前言 mermaid生成的原理 流程圖 思維導圖 組織架構圖 時間軸 小結 你看你是否同我遇到了一樣的煩惱? 想乘AI之風搭個不用調框、調顏色的流程圖順風車,結果發現常用的在線繪圖工具沒這號功能;想畫一個組織框架圖或時間軸,除了買ppt會員、模板之外也找不到哪裏有方便

notion AI , 生成邏輯圖 , deepseek+mermaid , aigc , llama , napkin

收藏 評論

查拉圖斯特拉説 - 搭建本地大模型知識庫

前言這章節主要是講如何用本地的,一個很小的大模型,搭建一個自己的知識庫,體驗一下大模型的一個知識庫的能力,還有大模型的一個檢索能力。配置Ollama模型的目錄到官網下載歐拉瑪一個大模型管理工具之後就要配置他的一個大模型的一個安裝目錄,當然也可以使用默認的 下載大模型你可以直接在這上面選擇輸入的內容模型的內容,直接下載一邊使用命令的方式 這邊是使用命令的方式,先去官網檢索

機器學習 , 神經網絡 , chatgpt , 人工智能 , llama

收藏 評論

mob64ca14005461 - 工業相機概述

紫外工業相機的入門介紹和工業檢測核心場景 🎯紫外工業相機入門:核心原理 + 3 大工業檢測場景 🎯一、紫外工業相機入門:3 個關鍵知識點,快速讀懂核心邏輯 1. 核心原理:為什麼能 “看見隱形缺陷”? 2. 核心分類:按波段選,精準匹配場景 3. 關鍵參數:選型不踩坑的核心指標

視覺檢測 , 數碼相機 , 目標跟蹤 , aigc , 人工智能 , llama , 計算機視覺

收藏 評論

yzy121403725 - kubeflow大規模ML訓練master單點故障方案

優化 Kubeflow 部署,配置多 Master、共享存儲,使用 PyTorchJob/TFJob 配合 checkpoint 策略,保留 MLOps 全流程能力 這些優化的核心目標是: 1. 提高可用性 (HA):通過多 Master 消除單點故障。 2. 提升效率:通過共享存儲和合理的 Checkpoint 策略,加速訓練、方便模型複用和故障恢復。

aigc , llama , Kubeflow , master單點故障 , ML訓練

收藏 評論

修己xj - 從“死記硬背”到“靈活應用”:詳解RAG如何讓AI真正理解並回答問題

當AI不再僅僅是“復讀機”,而是能夠結合最新信息提供準確回答的智能助手——這就是RAG技術帶來的變革。 在人工智能快速發展的今天,我們常常遇到這樣的困境:大型語言模型如GPT-4擁有海量知識,卻無法獲取最新的信息;它能寫出優美的文章,卻無法準確回答你公司內部文檔中的具體問題。這就是所謂的“知識截止日期”問題——模型只能基於訓練時的數據進行回答。 但有一項技術正在徹底

數據 , 搜索 , 語言模型 , aigc , llama

收藏 評論

api大模型前言資訊 - 2026 AI 大模型API 生態對比:LiteLLM、AnythingLLM、OpenRouter 與 poloapi.top 的深度比較與應用場景

目錄 引言:2026 年 AI 大模型的連接與挑戰 LiteLLM:標準化 Python 調用的 AI API 適配器 OpenRouter:全球性小眾 AI 模型的聚合平台 AnythingLLM:簡易構建本地 AI 知識庫的工具 poloapi.top:國內 AI API 服務的新選擇 橫向對比:誰是最合適的 LLM A

API , aigc , llama , 開發者 , Python

收藏 評論

yzy121403725 - 常見模型部署環節優化技術微調、剪枝、蒸餾、量化等

模型優化技術 —— 目的都是讓訓練好的模型更適配部署環境(如低算力設備、低延遲場景),同時儘可能保留模型性能(精度、效果) 一、微調(Fine-tuning):讓模型 “適配新場景” 1. 核心定義 微調是在預訓練模型(如 BERT、ResNet)的基礎上,用少量目標場景的數據集繼續訓練,調整模型參數以適配具體任務或環境的過程。可以理解為:預訓練模型已經 “學會

部署模型優化技術 , aigc , llama

收藏 評論

Coder個人博客 - MiniCPM-o.cpp 詳細函數調用流程

文章目錄 1. 主要入口點函數 1.1 CLI入口點 1.2 MiniCPMO構造函數流程 2. 核心處理流程函數 2.1 流式視頻處理 2.2 流式預填充 2.3 單次預填充 3. 模態處理詳細函數

移動開發 , 初始化 , 並行處理 , llama , 模態 , html5

收藏 評論

oioihoii - AI 技能工程入門:從獨立能力到協作生態

隨着大型語言模型(LLM)能力的飛速發展,如何讓它們穩定、高效地執行復雜任務,已成為AI工程化的核心挑戰。作為應對,“技能”(Skills) 作為一種新興的AI能力封裝範式應運而生,而由其引發的AI智能體間的互操作性問題,則催生了以模型上下文協議(MCP) 為代表的一系列通信協議。 本文將系統性地介紹技能的概念、開發方法,並深入探討其與MCP等協議的關係,為你構建下一代智能應用奠定基

外部工具 , 封裝 , aigc , llama , 複用

收藏 評論

架構師李哲 - 讓智能家居“聽懂人話”:我用4B模型+萬條數據,教會了它理解複雜指令

在智能家居場景中,我們經常遇到這樣的尷尬: 你説:“把燈打開。” —— 它可以執行。 你説:“如果檢測到漏水,就把水閥關了併發個通知。” —— 它可能聽不懂了。 你説:“有點冷,把空調調高一點。” —— 它問你:“一點是多少?” 在物聯網(IoT)時代,我們希望智能家居不僅僅是“遙控器”,而是能聽懂人話的“管家”。 我們測試了市面上幾款主流大模型——

數據集 , 智能家居 , 大模型微調 , aigc , llama , Json

收藏 評論

GpuMall智算雲 - 最強開源大模型Meta LIama3搶先在線體驗!

4月19日Facebook母公司Meta重磅推出了其迄今最強大的開源人工智能(AI)模型——Llama3。模型分為兩種規模:8B 和 70B 參數,每種規模都提供預訓練基礎版和指令調優版。最強開源大語言模型Meta LIama3可以在線體驗啦! https://gpumall.com/login?type=registersource=sifou 作為最強開源大模型,LIama3性能卓越,頗有亮點

Facebook , 人工智能 , 開源 , llama , 鏡像

收藏 評論

mob64ca1405a060 - NPU升騰模型部署性能測試

目錄 在昇騰NPU上跑Llama 2模型:一次完整的性能測試與實戰通關指南 引言:從“為什麼選擇昇騰”開始 第一幕:環境搭建——好的開始是成功的一半 1.1 GitCode Notebook 創建“避坑指南” 1.2 環境驗證:“Hello, NPU!” 第二幕:模型部

code , 性能測試 , 後端開發 , llama , ci , Python

收藏 評論

歲月如歌甚好 - 設計模式C++學習筆記之七(AbstractFactory抽象工廠模式) - 星晨

1. Llama Factory 到底是什麼? 1.1 簡單比喻 想象你要定製一輛汽車: 傳統方式(沒有 Llama Factory): 你需要自己造發動機、設計車身、組裝零件 需要懂機械工程、電子技術、材料科學 整個過程複雜、容易出錯、耗時很長 使用 Llama Factory:

數據集 , 數據 , 人工智能 , llama , Css , 前端開發 , 工作原理 , HTML

收藏 評論

架構師李哲 - 告別深夜批改:用Qwen3-VL大模型打造會“理解”的作文閲卷助手

深夜十一點,李老師揉了揉發酸的眼睛,面前還有三十多篇作文等待批改。 這是無數語文教師的日常寫照——繁重的批改負擔、難以完全統一的標準、反饋到達學生手中時已失去時效性。 而在AI技術日新月異的今天,我們能否讓機器真正“理解”一篇作文的優劣? 答案是肯定的。基於Qwen3-VL-30B-A3B-Instruct大模型,我們成功打造了一款能夠深度理解中文作文的智能閲卷

數據集 , 模版 , 數據 , aigc , llama

收藏 評論

FlowyAIPC - FlowyAIPC 發佈全新 4.0:開啓端側 AI 的主動生產力時代

【2025年11月28日】 —— 端側 AI 生產力工具FlowyAIPC正式發佈全新4.0版本。本次更新圍繞 “主動生產力”“端側智能”“本地化大模型加速” 三個方向進行了深度演進,進一步推動 AI 從工具型能力向真正的智能操作系統層能力邁進。 FlowyAIPC 4.0 聚焦於讓一台普通電腦成為可主動協助用户處理任務的個人 AIPC(AI Personal Computer) ,支持本地大模

機器學習 , llm , 自然語言處理 , 人工智能 , llama

收藏 評論

KAI智習 - OpenAI ChatGPT功能大升級,NVIDIA斯坦福開源遊戲AI,通義千問Qwen Code生態擴展

一起來看今天的AI行業動態。OpenAI在ChatGPT功能增強方面的新進展、NVIDIA與斯坦福在遊戲AI領域的突破、通義千問Qwen Code的生態擴展,以及中國AI產業萬億級產值的里程碑。這些進展涵蓋了從基礎模型到應用場景的多個層面,對開發者和行業從業者都有重要意義。 1. OpenAI:ChatGPT迎來界面大升級,編程能力再提升 核心事件:OpenAI發佈了ChatGPT的重要功能更新,

資訊 , 人工智能 , llama

收藏 評論

架構師李哲 - 當 AI 落地到了“深水區”:到底是 Prompt 不行、RAG 不夠,還是該考慮微調了?

這兩年,大家對大模型已經不再停留在“技術演示多酷炫”,而是越來越現實地問一句: “為什麼模型看起來很強,但真要放進我們自己的業務裏,用起來總差點意思? 尤其是——明明接入了私域知識庫,效果還是不穩定?” 答案往往不在某一個“神技”,而是在你怎麼 同時使用 Prompt、RAG 和微調,以及它們和業務的“耦合深度”。 先釐清三個“槓

數據 , aigc , llama , 回滾 , 迭代

收藏 評論

yzy121403725 - gitlab+kubeflow+minio/oss對象存儲搭建MLOps

核心思路 我們將利用: • GitLab:作為代碼倉庫、CI/CD 流水線的編排者和觸發器。它負責監控代碼變更、運行自動化測試、構建鏡像並與 Kubeflow 交互。 • Kubeflow:作為運行在 Kubernetes 上的機器學習專用平台。它負責執行復雜的模型訓練(通過 Pipelines)和模型部署(通過 Serving)任務。 整個 MLOps

gitlab+kubeflow , MLOps , aigc , llama

收藏 評論

oioihoii - 構建高併發AI服務網關:C++與gRPC的工程實踐

隨着AI服務在企業中的規模化部署,如何高效、可靠地將多個異構AI模型集成到統一的服務架構中,成為後端工程師面臨的重要挑戰。本文介紹基於C++與gRPC構建高併發AI服務網關的完整實踐方案,涵蓋架構設計、性能優化、容錯機制等關鍵環節。 1. 問題背景:AI服務部署的挑戰 1.1 現狀分析 典型的AI服務部署面臨以下痛點: 異構環境:PyTorch、TensorFlo

批處理 , 數據 , 服務部署 , aigc , llama

收藏 評論

yzy121403725 - MLOps

1. 定義與本質 MLOps 是一套將機器學習模型從開發(實驗)落地到生產環境,並實現全生命週期自動化、可觀測、可追溯的工程實踐體系。 核心目標:解決 “模型訓練出來能用,但上線難、維護難、迭代慢” 的痛點(比如傳統 ML 流程中,數據科學家訓練的模型,運維人員難以部署,且上線後數據漂移、模型性能下降無法及時感知)。 與傳統運維的區別:傳統運維聚焦

數據 , MLOps , aigc , llama , ML

收藏 評論