@llm

动态 列表
@openbayescom

OpenBayes 在線教程彙總丨Qwen 連發 SOTA 級模型,覆蓋文本渲染/視頻創作/編程輔助

近期,阿里通義千問團隊以「卷王」速度持續刷新開源效率,兩週內發佈的開源模型覆蓋圖像生成、視頻創作、編程輔助三大核心領域,並推出非思考模式的新版本模型,不僅迭代速度領跑行業平均水平,更是多次刷新領域 SOTA。 舉例而言,Qwen-Image 作為其圖像生成基礎模型,實現了精準的中文渲染;「甜品級」編程模型 Qwen3-Coder-Flash 在提供輕量級模型部署效率的同時,實現了接近頂級閉源模型的

openbayescom 头像

@openbayescom

昵称 OpenBayes

@weidejianpan

LazyLLM 教程 | 第 13 講:RAG + 多模態:圖片、表格通吃的問答系統

在前面的課程中,我們探討了RAG(Retrieval-Augmented Generation)的基本原理及其在純文本處理中的應用。RAG 通過從外部知識庫檢索相關信息,結合上下文生成更準確、信息豐富的回答,從而提升基於文本的問答系統能力。 然而,現實世界中的信息並不侷限於文本,例如 PDF 文檔中的圖片、表格等多模態數據也承載着大量有價值的知識。在某些情況下,這些圖文並茂的內容比純文本更直觀、

weidejianpan 头像

@weidejianpan

昵称 商湯萬象開發者

@chaoshenjinghyperai

【vLLM 學習】歡迎來到 vLLM!

vLLM 是一款專為大語言模型推理加速而設計的框架,實現了 KV 緩存內存幾乎零浪費,解決了內存管理瓶頸問題。 更多 vLLM 中文文檔及教程可訪問 →https://vllm.hyper.ai/ vLLM 是一個快速且易於使用的庫,專為大型語言模型 (LLM) 的推理和部署而設計。 vLLM 的核心特性包括: 最先進的服務吞吐量 使用 PagedAttention 高效管理注意力鍵和值的內

chaoshenjinghyperai 头像

@chaoshenjinghyperai

昵称 超神經HyperAI

@baidujiagoushi

BaikalDB MCP Server :鏈接數據庫和AI的直通橋

導讀 BaikalDB作為服務百度商業產品的分佈式存儲系統,支撐了整個廣告庫海量物料的存儲。在大語言模型LLM蓬勃發展的現在,想在大模型裏使用BaikalDB裏的數據進行分析,都需要複雜的定製開發。看BaikalDB如何藉助模型上下文協議(MCP),讓數據庫對話像聊天一樣簡單——無需編寫代碼,大語言模型即可完成複雜數據分析。 01 引言 在2025年以前,大語言模型(Large Language

baidujiagoushi 头像

@baidujiagoushi

昵称 百度Geek説

@da_miao_zi

Markdown算編程語言嗎?由SuperClaude的自定義工具引發的思考

沒有 if 或 while,只能用來寫文檔的 Markdown 算編程語言嗎? 先別急着回答。讓我們先來想象一下,當你在寫代碼時,身邊突然多了一羣虛擬隊友——她們不僅能幫你補全代碼、隨時完善文檔,還能化身為架構師、安全專家、前端工程師或火眼金睛的 QA,給出專業意見——會是怎樣一種體驗呢?説不定還能變身為虛擬的程序員鼓勵師呢。 這正是 SuperClaude Framework 想為開發者帶來的體

da_miao_zi 头像

@da_miao_zi

昵称 da_miao_zi

@tiandexianggua

構建大模型的“服務網格”:從Cloud Foundry的Service Broker到AI時代的MCP演進

前序 作為資深諮詢規劃專家,我目睹過雲計算從混亂到標準化的演進歷程。如今,AI生態正面臨類似的十字路口。 在雲原生架構中,Service Broker機制通過標準化API,成功解決了PaaS平台上應用與服務之間的連接難題。這一經過實踐檢驗的設計,恰恰為當前大模型與外部數據和工具集成的挑戰提供了絕佳解決方案。 新興的Model Context Protocol正致力於解決類似問題,但作為202

tiandexianggua 头像

@tiandexianggua

昵称 靦腆的青春逗

@deephub

LangChain v1.0 中間件詳解:徹底搞定 AI Agent 上下文控制

用 LangChain 構建 AI Agent 的人應該都遇到過這種情況:測試階段一切正常,部署到生產環境就開始出各種問題。上下文管理混亂,Agent 的行為變得難以預測,最後不得不寫一堆自定義代碼來控制信息流向。 這是因為在v1.0 之前的 LangChain 對上下文工程的支持不夠系統化。上下文工程的本質其實就是信息管理——給 AI 多少信息、什麼時候給、以什麼方式給。信息過載會導致模型困惑,

deephub 头像

@deephub

昵称 deephub

@dayong_59b0e68b1ed0d

不會AI編程?沒關係!這幾個框架也讓你也能開發AI聊天助手!

文 / 勇哥 原創文章,轉載請聯繫授權 一、前言 大家好,我是勇哥!上一篇文章我們聊了《[真相!Dify和n8n這兩款LLM應用開發平台的最大區別,90%的人都不知道! ](https://mp.weixin.qq.com/s/gKbeM2Er66OF5U_otKPyeQ)》,有不少讀者私信我説:"勇哥,雖然低代碼平台很方便,但我想自己動手實現一個真正屬於自己的AI助手,就像De

dayong_59b0e68b1ed0d 头像

@dayong_59b0e68b1ed0d

昵称 六邊形架構

@deephub

FastMCP 入門:用 Python 快速搭建 MCP 服務器接入 LLM

Model Context Protocol (MCP) 這個協議簡單説就是給大語言模型接入外部數據和工具提供了一套標準化方案。MCP 統一了模型和各種數據源、工具服務之間的交互方式。 FastMCP 是目前用 Python 構建 MCP 服務器最順手的框架,把底層那些複雜的協議實現全都封裝好了,開發者只需要關注業務邏輯就行。 這篇文章會講清楚 MCP 的基本概念,FastMCP 的工作原理,以及

deephub 头像

@deephub

昵称 deephub

@amc

AI 寫文章系列——Ubuntu 24.04 pipx install 解決 ModuleNotFoundError 問題

概述 自從轉 Go 之後,好久沒寫 Python 了。最近在 Ubuntu 24.04 中使用 pipx 安裝了一個工具之後,運行報依賴錯誤。把上下文餵給 DeepSeek 之後,最終解決了問題。 我讓 DeepSeek 回顧問答的上下文,整理了一篇文章出來——不過相比上一篇,這次我人工介入修改的內容多得多。 問題提出 最近需要扣一個圖,把我的證件照背景顏色換一換。搜了一下,在 Github 上

amc 头像

@amc

昵称 amc

@aibruce

AI時代,程序員究竟是懶了,還是更強了?

在不遠的過去,當 IDE 剛剛誕生時,老一代程序員曾擔心程序員的基本功會退化,認為 IDE 限制了程序員的靈活性,擔心代碼質量會因此下降。 “使用 IDE 就像小學生在考試時帶計算器,它讓程序員變懶。” “真正的程序員不需要 IDE,只需要一個簡單的編輯器和終端。” “自動生成的代碼就像速食品,方便但不健康。” “我寧願用 vi,Eclipse 啓動時間足夠我編譯一遍了。” “一個好的

aibruce 头像

@aibruce

昵称 Bruce

@chunzhendexiaogou

Kimi K2 日調用量超100億 token,API 價格低於 Claude 系列模型

一、Kimi K2模型基本信息 Kimi K2是由北京月之暗面科技有限公司(Moonshot AI)於2025年7月11日發佈的開源大語言模型,具有以下核心特點: ‌架構創新‌:採用MoE(混合專家)架構,總參數規模達1萬億(1T),激活參數為320億(32B),包含384個專家模塊,每個token選擇8個專家進行計算 ‌性能表現‌:在SWE Bench Verified、Tau2、AceB

chunzhendexiaogou 头像

@chunzhendexiaogou

昵称 PoloAPI

@idiomeo

超簡單!教你用C語言手搓LLM模型

本文由 愚人貓(Idiomeo) 編寫 推薦閲讀我的博客原文 一.LLM 的數學基礎 大語言模型 (LLM) 的底層實現離不開紮實的數學基礎,這部分將系統梳理支撐 LLM 的核心數學理論,為後續的代碼實現奠定理論基礎。 線性代數:LLM 的基礎語言 線性代數是理解和實現 LLM 的基礎,特別是矩陣運算構成了神經網絡的核心操作。在 LLM 中,文本被表示為向量或矩陣形式,模型通過矩陣變換和運

idiomeo 头像

@idiomeo

昵称 愚人貓Idiomeo

@wangzhongyang_go

我發現不管是Java還是Golang,懂AI之後,是真吃香!

見字如面,我是陽哥,我的文章都首發在同名公眾號:王中陽,歡迎鏈接。 兄弟們,不管你是什麼崗位,強烈建議學AI,我最近輔導的同學很多都是因為做了AI項目,拿到了遠超預期的Offer。 這篇文章不是廣告,而是告訴你怎麼在懂後端基礎之後,更好的擁抱AI的技術,怎麼學,學完後怎麼應用? 甚至你想跳槽漲薪的話,怎麼把學的AI知識寫到簡歷中,融合到你過去的項目中。 廢話不説,其實兄弟們也感受到了:純做

wangzhongyang_go 头像

@wangzhongyang_go

昵称 王中陽講編程

@dayong_59b0e68b1ed0d

我,一個AI技術小白,竟然用Dify+Ollama手搓出了自己的AI聊天助手!

文 / 勇哥 原創文章,轉載請聯繫授權 寫在前面:從AI小白到AI創造者的逆襲 大家好,我是勇哥!既上一篇《揭秘Deepseek:只用GPT-4成本的6%,卻做出更聰明的AI?》帶大家簡單地瞭解了一下AI智能助手的工作原理之後,今天我想要跟大家分享一個技能:作為一個連代碼都寫不利索的技術小白,也能在半天內成功搭建了一個屬於自己的AI聊天助手! 是的,你沒聽錯!不是用ChatGPT,不是

dayong_59b0e68b1ed0d 头像

@dayong_59b0e68b1ed0d

昵称 六邊形架構

@deephub

解決GRPO優勢歸因錯誤,Chunk-GRPO讓文生圖模型更懂"節奏"

文本到圖像(T2I)生成模型的發展速度超出很多人的預期。從SDXL到Midjourney,再到最近的FLUX.1,這些模型在短時間內就實現了從模糊抽象到逼真細膩的跨越。但問題也隨之而來——如何讓模型生成的不僅僅是"一張圖",而是"正確的那張圖"?這涉及到如何讓AI理解人類在審美、風格和構圖上的真實偏好。 強化學習(RL)成為解決這個問題的關鍵技術。通過將人類偏好分數作為獎勵信號,可以對這些大模型進

deephub 头像

@deephub

昵称 deephub

@dayong_59b0e68b1ed0d

真相!Dify和n8n這兩款LLM應用開發平台的最大區別,90%的人都不知道!

文 / 勇哥 原創文章,轉載請聯繫授權 一、前言 大家好,我是勇哥!繼上一篇《震驚!我,一個技術小白,竟然用Dify+Ollama手搓出了自己的AI聊天助手!》帶大家簡單地瞭解了一下普通人如何自己搭建一個屬於自己的AI智能助手之後,就有讀者問我,作為一名傳統的開發者,該怎樣進入AI的行業或者是學習AI的技能呢?我作為一名過來人,我給大家的建議是:好好地去學習AI應用開發的技能,然後通過

dayong_59b0e68b1ed0d 头像

@dayong_59b0e68b1ed0d

昵称 六邊形架構

@digitalocean

裸金屬 vs. 虛擬化 GPU 服務器:AI 訓練與推理應該怎麼選

根據研究機構預測,全球人工智能市場規模在 2024 年的價值為 234.6 億美元。預計該市場將從 2025 年的 2,941.6 億美元增長到 2032 年的 1,7716.62 億美元,在預測期間的複合年增長率為 29.2%。到 2030 年全球 ​AI​​​ 推理市場規模將達到 2549.8 億美元​,而推理任務將佔據 ​數據中心整體計算需求的 70% 以上​。 AI 模型的複雜度正以指數級

digitalocean 头像

@digitalocean

昵称 DigitalOcean

@baihai_idp

對 GPT 5 模型路由機制的深度解析

編者按: 我們今天為大家帶來的文章,作者的觀點是:GPT-5 通過引入“智能路由器”架構,實現了按需調用不同專家模型的動態協作機制,標誌着大模型正從“全能單體架構”邁向“專業化協同架構”的新範式。 文章深入剖析了 GPT-5 路由機制的四大決策支柱 —— 對話類型、任務複雜度、工具需求與用户顯性意圖,並對比了其相較於 GPT-4、Toolformer 及早期插件系統的突破性進步。作者還詳細拆

baihai_idp 头像

@baihai_idp

昵称 Baihai_IDP

@deephub

打造自己的 Claude Code:LangGraph + MCP 搭建一個極簡的 AI 編碼助手

實踐是最好的學習方式。為了深入理解 LangGraph 和模型上下文協議(MCP)服務器的生態,我們來從零開始構建一個 CLI 編碼代理。我們的目標是,拋開 Claude Code 那些花裏胡哨的功能,看看最基礎的編碼代理能做到什麼程度。 那些商業編碼代理往往會添加各種專有的"秘密配方"——特殊的上下文管理、精心設計的提示策略、優化過的工具選擇算法。這些技術細節被包裝得嚴嚴實實,很難

deephub 头像

@deephub

昵称 deephub

@deephub

構建有記憶的 AI Agent:SQLite 存儲 + 向量檢索完整方案示例

現在的 Agent 系統有個很明顯的問題 —— 會話一結束,什麼都忘了。 這不是個技術缺陷,但是卻限制了整個系統的能力邊界。Agent 可以做推理、規劃、執行復雜任務,但就是記不住之前發生過什麼。每次對話都像是第一次見面,這種狀態下很難説它真正"理解"了什麼。 記憶能力是把 LLM 從簡單的問答工具變成真正協作夥伴的關鍵。一個只能"回答當前問題",另一個能"基於歷史經驗做決策",這就是增加了記憶能

deephub 头像

@deephub

昵称 deephub

@deephub

大模型強化學習的熵控制:CE-GPPO、EPO與AsyPPO技術方案對比詳解

LLM的強化學習訓練最近進展很快,SOTA模型在各種推理benchmark上的表現確實亮眼。但更值得關注的其實是另一條信息——從Rutgers到Alibaba再到HKUST,這些研究團隊正在攻克的是RL領域的一個老大難:怎麼控制好熵,同時避免模型退化成毫無用處的確定性輸出。 三篇新論文給出了不同角度的解法:CE-GPPO、EPO和AsyPPO。雖然切入點各有不同,但合在一起就能發現它們正在重塑大規

deephub 头像

@deephub

昵称 deephub

@deephub

AutoGen框架入門:5個核心概念搭建智能體協作系統

AutoGen 是微軟研究院開源的多智能體 AI 系統框架。這個框架的設計思路很簡單——讓多個 AI 智能體(加上人類參與)在對話中完成複雜任務的協作和推理。 你甚至可以把它理解成一個團隊聊天室,智能體們在裏面討論、爭論、協作,最終得出解決方案。 AutoGen 通過創建多個專門化智能體,為每個智能體設定自己的角色、目標,來達到上面説的聊天能力,並且還能通過配置工具來獲得代碼執行能力。智能

deephub 头像

@deephub

昵称 deephub

@deephub

HNSW算法實戰:用分層圖索引替換k-NN暴力搜索

向量檢索是整個RAG管道的一個重要的步驟,傳統的暴力最近鄰搜索因為計算成本太高,擴展性差等無法應對大規模的搜索。 HNSW(Hierarchical Navigable Small World,分層可導航小世界圖)提供了一種對數時間複雜度的近似搜索方案。查詢時間卻縮短到原來的1/10,我們今天就來介紹HNSW算法。 傳統搜索方法在高緯度下會崩潰,並且最近鄰搜索(NNS)的線性時間複雜度讓成本變得不

deephub 头像

@deephub

昵称 deephub