博客 / 列表

deephub - HaluMem:揭示當前AI記憶系統的系統性缺陷,系統失效率超50%

用過聊天機器人的人都遇到過這種情況:你剛説喜歡科幻小説,幾輪對話後它給你推薦言情小説。你告訴聊天機器人升職了,但是過會兒又他又問你職業。這種情況不只是健忘而是根本性的bug——AI不僅會丟上下文,還會憑空編造、記錯、甚至生成自相矛盾的內容。 這就是記憶幻覺(memory hallucination)。相比那些編造世界知識的"生成幻覺",記憶幻覺是更上游的問題。一旦AI的記憶庫被污染,後續所有的推理

generative-ai , llm , 知識 , 人工智能

deephub - AI智能體落地:Agent-Assist vs 全自動化完整決策指南

今年開始LLM驅動的Agentic AI發展速度非常驚人。而我們現在面臨一個實際問題:到底是上全自主的AI智能體,還是讓人類繼續參與決策?從大量實際案例來看Agent-Assist(也就是Human-in-the-Loop系統)既能帶來自動化的效率提升,又能有效規避那些可能造成重大損失的錯誤。 而且如果系統設計得當的化,還可以從人類每次糾正中學習,持續積累組織自己的專業知識庫。 概念回顧

llm , agent , 人工智能 , 深度學習

deephub - 基於 LangGraph 的對話式 RAG 系統實現:多輪檢索與自適應查詢優化

RAG(Retrieval-Augmented Generation)在語言模型應用中已經相當成熟,但傳統實現往往只是簡單的"檢索-生成"流程。實際對話場景要複雜得多——用户的問題可能含糊不清,或者會頻繁追問,還經常提些不相關的內容。 這篇文章會展示怎麼用 LangGraph 構建一個具備實用價值的 RAG 系統,包括能夠處理後續追問、過濾無關請求、評估檢索結果的質量,同時保持完整的對話記憶。 傳

generative-ai , llm , 人工智能 , 深度學習 , langchain4j

deephub - LightRAG 實戰: 基於 Ollama 搭建帶知識圖譜的可控 RAG 系統

LightRAG 是個開源的 RAG 框架,專門用來快速搭建模塊化的檢索增強生成管道。這個項目在 GitHub 上熱度不低,我們今天來看看他到底怎麼用 基礎安裝與環境配置 LightRAG 的安裝過程很簡單,幾行命令就能搞定: pip install "lightrag-hku[api]" cp env.example .env # ---這個有很多參數 非常豐富 lightra

llm , 知識圖譜 , 人工智能 , 檢索系統 , Python

deephub - TensorRT 和 ONNX Runtime 推理優化實戰:10 個降低延遲的工程技巧

模型速度的瓶頸往往不在算法本身。幾毫秒的優化累積起來就能讓用户感受到明顯的性能提升。下面這些技術都是在生產環境跑出來的經驗,不需要重構代碼實施起來也相對簡單並且效果顯著。 固定輸入形狀,越早告訴運行時越好 動態形狀用起來方便但對性能不友好。TensorRT 和 ONNX Runtime 在處理固定形狀時能做更激進的優化。 TensorRT 這邊,構建引擎時最好圍繞實際使用的 min/opt

pytorch , 人工智能 , tensorrt

deephub - Orion-MSP:深度學習終於在表格數據上超越了XGBoost

表格數據一直是深度學習的老大難問題。這些年CV和NLP領域被Transformer統治得服服帖帖,但在真正的業務場景裏,面對表格這類的結構化數據,XGBoost這些梯度提升樹還是穩坐釣魚台。 為什麼會這樣?問題其實很簡單。圖像的像素排列有空間位置關係,文本有上下文順序,但表格裏的列是啥順序都行——年齡放第一列和放最後一列沒區別。而且這些列的類型完全不同:有數值、有類別,有的服從正態分佈有的嚴重偏態

神經網絡 , 人工智能 , 深度學習 , Python

deephub - Python因果分析選哪個?六個貝葉斯推斷庫實測對比(含代碼示例)

Python 生態裏能用的因果庫有很多選哪個往往要看你對模型的理解程度,以及項目對“可解釋性”的要求。這篇文章將對比了六個目前社區中最常用的因果推斷庫:Bnlearn、Pgmpy、CausalNex、DoWhy、PyAgrum 和 CausalImpact。 貝葉斯因果模型 在因果推斷裏所有變量可以粗略分成兩種:驅動變量(driver variables)和乘客變量(passenger varia

機器學習 , 貝葉斯 , 人工智能 , Python

deephub - 12 種 Pandas 測試技巧,讓數據處理少踩坑

12 種 Pandas 測試技巧,讓數據處理少踩坑 12 種測試實踐 —— fixtures、schemas、property-based tests、snapshots、performance guards —— 每週能省不少排查問題的時間 Pandas 的 bug 有個特點,就是不會在控制枱裏大喊大叫,而是悄悄藏在 dtype 轉換、索引操作、時區處理的某個角落,或者那種跑十萬次才能復現一次

機器學習 , 人工智能 , pandas , 數據分析 , Python

deephub - 量子機器學習入門:三種數據編碼方法對比與應用

在傳統機器學習中數據編碼確實相對直觀:獨熱編碼處理類別變量,標準化調整數值範圍,然後直接輸入模型訓練。整個過程更像是數據清洗,而非核心算法組件。 量子機器學習的編碼完全是另一回事。 傳統算法可以直接消化特徵向量 [0.7, 1.2, -0.3],但量子電路運行在概率幅和量子態的數學空間裏。你的每個編碼決策——是用角度旋轉、振幅映射還是基態表示——都在重新定義信息在量子系統中的存在形式。這不是簡單的

機器學習 , 編碼 , 人工智能 , 量子計算機

deephub - LLM代理應用實戰:構建Plotly數據可視化代理

如果你嘗試過像ChatGPT這樣的LLM,就會知道它們幾乎可以為任何語言或包生成代碼。但是僅僅依靠LLM是有侷限的。對於數據可視化的問題我們需要提供一下的內容 描述數據:模型本身並不知道數據集的細節,比如列名和行細節。手動提供這些信息可能很麻煩,特別是當數據集變得更大時。如果沒有這個上下文,LLM可能會產生幻覺或虛構列名,從而導致數據可視化中的錯誤。 樣式和偏好:數據可視化是一種藝術形式,每個人都

llm , 代理 , 人工智能 , 深度學習 , 可視化

deephub - LangGraph實戰:從零構建智能交易機器人,讓多個AI智能體像投資團隊一樣協作

現在的量化交易早就不是簡單的技術指標了。真正有效的交易系統需要像一個完整的投資團隊一樣工作——有專門的分析師收集各種數據,有研究員進行深度分析和辯論,有交易員制定具體策略,還有風險管理團隊把關。問題是傳統的程序很難模擬這種複雜的協作流程。 LangGraph的多智能體架構正好解決了這個問題。我們可以構建一個像真實投資公司一樣運作的系統,每個智能體負責特定的職能,它們之間可以進行辯論、協商,最終形成

llm , 代理 , 人工智能 , 深度學習

deephub - 從零實現3D Gaussian Splatting:完整渲染流程的PyTorch代碼詳解

3D Gaussian Splatting(3DGS)現在幾乎成了3D視覺領域的標配技術。NVIDIA把它整合進COSMOS,Meta的新款AR眼鏡可以直接在設備端跑3DGS做實時環境捕獲和渲染。這技術已經不只是停留在論文階段了,產品落地速度是相當快的。 所以這篇文章我們用PyTorch從頭實現最初那篇3DGS論文,代碼量控制在幾百行以內。雖然實現很簡潔但效果能達到SOTA水平。 需要説明的是,

pytorch , 人工智能 , 深度學習

deephub - 提升迴歸模型可信度:4種神經網絡不確定性估計方法對比與代碼實現

迴歸任務在實際應用中隨處可見——天氣預報、自動駕駛、醫療診斷、經濟預測、能耗分析,但大部分迴歸模型只給出一個預測值,對這個值到底有多靠譜卻隻字不提。這在某些應用場景下會造成很多問題,比如用模型預測患者血壓,假設輸出是120/80這樣的正常值,表面看沒問題。但如果模型其實對這個預測很不確定呢?這時候光看數值就不夠了。 神經網絡有幾種方法可以在給出預測的同時估計不確定性。 迴歸中的不確定性問題 分類任

神經網絡 , 人工智能 , 深度學習 , Python

deephub - 如果你的PyTorch優化器效果欠佳,試試這4種深度學習中的高級優化技術吧

在深度學習領域,優化器的選擇對模型性能至關重要。雖然PyTorch中的標準優化器如 SGD 、 Adam 和 AdamW 被廣泛應用,但它們並非在所有情況下都是最優選擇。本文將介紹四種高級優化技術,這些技術在某些任務中可能優於傳統方法,特別是在面對複雜優化問題時。 我們將探討以下算法: 序列最小二乘規劃(SLSQP) 粒子羣優化(PSO) 協方差矩陣自適應進化策略(CMA-ES) 模擬退

神經網絡 , pytorch , 人工智能 , 深度學習 , 優化

deephub - 使用PyTorch實現GPT-2直接偏好優化訓練:DPO方法改進及其與監督微調的效果對比

基於人類反饋的強化學習(RLHF)已成為大型語言模型(LLM)訓練流程中的關鍵環節,並持續獲得研究界的廣泛關注。 本文將探討RLHF技術,特別聚焦於直接偏好優化(Direct Preference Optimization, DPO)方法,並詳細闡述了一項實驗研究:通過DPO對GPT-2 124M模型進行調優,同時與傳統監督微調(Supervised Fine-tuning, SFT)方法進行對比

機器學習 , llm , pytorch , 人工智能 , 優化

deephub - TorchOptimizer:基於貝葉斯優化的PyTorch Lightning超參數調優框架

超參數優化是深度學習模型開發過程中的一個核心技術難點。合適的超參數組合能夠顯著提升模型性能,但優化過程往往需要消耗大量計算資源和時間。本文介紹TorchOptimizer,這是一個基於貝葉斯優化方法的超參數優化框架,專門用於優化PyTorch Lightning模型的超參數配置。 TorchOptimizer是一個集成了PyTorch Lightning框架和scikit-optimize貝葉斯

機器學習 , pytorch , 人工智能 , 深度學習 , 優化

deephub - Python高性能編程:五種核心優化技術的原理與Python代碼

在性能要求較高的應用場景中,Python常因其執行速度不及C、C++或Rust等編譯型語言而受到質疑。然而通過合理運用Python標準庫提供的優化特性,我們可以顯著提升Python代碼的執行效率。本文將詳細介紹幾種實用的性能優化技術。 1、__slots__機制:內存優化 Python默認使用字典存儲對象實例的屬性,這種動態性雖然帶來了靈活性,但也導致了額外的內存開銷。通過使用 __slots_

機器學習 , 人工智能 , 優化 , Python

deephub - Optuna v4.5新特性深度解析:GPSampler實現約束多目標優化

Optuna在8月18日發佈了最近的 v4.5版,加入了GPSampler的約束多目標優化功能,我們來看看這個新的功能。 基於高斯過程的貝葉斯優化(GPBO)最近幾年在材料科學、機器學習等領域應用很廣。GPSampler最初設計時就想做一個簡單好用的GPBO實現。雖然在定製方面(比如核函數、獲取函數)沒有BoTorch和Ax那麼靈活,但GPSampler勝在速度快,依賴少。 早期版本的GPSamp

機器學習 , 貝葉斯 , 教程 , 人工智能 , 優化

deephub - Google開源Tunix:JAX生態的LLM微調方案來了

JAX生態這兩年在LLM訓練這塊追趕得挺快。PyTorch雖然還是主流但JAX在並行計算、TPU加速和API組合性上確實有些獨特的優勢。Google今天放出了Tunix這個庫,專門做LLM的後訓練——微調、強化學習、知識蒸餾這些都能搞。 Tunix是什麼 這是個構建在JAX之上的後訓練庫,和Flax NNX集成得比較緊密。主要解決三類問題: 監督微調(Supervised Fine-T

llm , jax , google , 人工智能 , 深度學習

deephub - LangChain v1.0 中間件詳解:徹底搞定 AI Agent 上下文控制

用 LangChain 構建 AI Agent 的人應該都遇到過這種情況:測試階段一切正常,部署到生產環境就開始出各種問題。上下文管理混亂,Agent 的行為變得難以預測,最後不得不寫一堆自定義代碼來控制信息流向。 這是因為在v1.0 之前的 LangChain 對上下文工程的支持不夠系統化。上下文工程的本質其實就是信息管理——給 AI 多少信息、什麼時候給、以什麼方式給。信息過載會導致模型困惑,

llm , 資訊 , 人工智能 , 深度學習 , llama

deephub - FastMCP 入門:用 Python 快速搭建 MCP 服務器接入 LLM

Model Context Protocol (MCP) 這個協議簡單説就是給大語言模型接入外部數據和工具提供了一套標準化方案。MCP 統一了模型和各種數據源、工具服務之間的交互方式。 FastMCP 是目前用 Python 構建 MCP 服務器最順手的框架,把底層那些複雜的協議實現全都封裝好了,開發者只需要關注業務邏輯就行。 這篇文章會講清楚 MCP 的基本概念,FastMCP 的工作原理,以及

llm , mcp , 人工智能 , Python

deephub - 解決GRPO優勢歸因錯誤,Chunk-GRPO讓文生圖模型更懂"節奏"

文本到圖像(T2I)生成模型的發展速度超出很多人的預期。從SDXL到Midjourney,再到最近的FLUX.1,這些模型在短時間內就實現了從模糊抽象到逼真細膩的跨越。但問題也隨之而來——如何讓模型生成的不僅僅是"一張圖",而是"正確的那張圖"?這涉及到如何讓AI理解人類在審美、風格和構圖上的真實偏好。 強化學習(RL)成為解決這個問題的關鍵技術。通過將人類偏好分數作為獎勵信號,可以對這些大模型進

generative-ai , llm , 強化學習 , 知識 , 人工智能

deephub - 打造自己的 Claude Code:LangGraph + MCP 搭建一個極簡的 AI 編碼助手

實踐是最好的學習方式。為了深入理解 LangGraph 和模型上下文協議(MCP)服務器的生態,我們來從零開始構建一個 CLI 編碼代理。我們的目標是,拋開 Claude Code 那些花裏胡哨的功能,看看最基礎的編碼代理能做到什麼程度。 那些商業編碼代理往往會添加各種專有的"秘密配方"——特殊的上下文管理、精心設計的提示策略、優化過的工具選擇算法。這些技術細節被包裝得嚴嚴實實,很難

llm , 人工智能 , 深度學習 , claude , Python

deephub - sklearn 特徵選擇實戰:用 RFE 找到最優特徵組合

特徵越多模型效果就越好?這個想法在實踐中往往站不住腳,因為過多的特徵反而會帶來過擬合、訓練時間過長、模型難以解釋等一堆麻煩。遞歸特徵消除(RFE)就是用來解決這類問題的,算是特徵選擇裏面比較靠譜的方法之一。 本文會詳細介紹RFE 的工作原理,然後用 scikit-learn 跑一個完整的例子。 RFE 是什麼 遞歸特徵消除本質上是個反向篩選過程。它會先用全部特徵訓練模型,然後根據模型給出的重要性評

機器學習 , 人工智能 , sklearn-pandas , 特徵提取 , Python