博客 / 列表

yuer2025 - AI 項目裏的一個高危設計: Human-in-the-Loop 並不等於安全

在很多 AI 項目評審中,我都會聽到一句話: “沒關係,我們有人在迴路裏(Human-in-the-Loop)。” 這句話在合規層面成立, 但在工程層面,經常是事故的起點。 一、工程上必須先問一個問題 “這個人,具體在迴路的哪一段?” 大多數系統裏的真實流程是: AI 分析輸入,給出判斷 /

字段 , 流程圖 , NLP , 安全機制 , 人工智能

yuer2025 - 為什麼企業級 AI 的第一需求,不是“更聰明”,而是“可控”

過去兩年,很多企業在 AI 項目上經歷了一個相似過程: Demo 階段:效果驚豔 POC 階段:局部可用 準備上線時:卡死在風險與責任上 這並不是企業“保守”,而是一個非常現實的問題: 一旦 AI 進入生產系統, 出事誰負責?誰簽字?誰兜底? 一、企業真正害怕的,從來不是 AI 不準

NLP , 人工智能 , 可控ai , AI Agent

yuer2025 - 從工程治理角度看:為什麼多數 AI Agent 系統並不“可控”

隨着 AI Agent 在各類系統中的應用不斷擴大, 越來越多的技術團隊開始關注一個問題: 當 AI 參與決策時,這個系統在工程上是否“可控”? 這裏的“可控”,並不是指模型是否穩定、效果是否準確, 而是一個系統治理問題。 一、工程語境下,什麼叫“可控” 在傳統軟件工程中,一個系統被認為是可控的

sed , github , 人工智能 , 數據結構與算法 , 軟件工程

yuer2025 - 為什麼未來 3 年,AI 系統如果“不會拒絕”,就無法進入生產環境?

過去幾年,AI 系統的能力提升速度非常快: 模型更強、推理更快、Agent 越來越“像人”。 但在真實工程落地中,很多團隊逐漸意識到一個殘酷現實: AI 系統不是“跑不跑得通”的問題,而是“允不允許上線”的問題。 而決定這一點的,往往不是模型能力,而是一個被長期忽略的工程能力: 系統是否具備“不可繞過的拒絕執行機制”。

sed , 生產環境 , 交叉驗證 , 人工智能 , 數據結構與算法

yuer2025 - WebRTC 實時語音系統,為什麼必須引入狀態機(FSM 作為 System Anchor)

WebRTC 實時語音系統,為什麼必須引入狀態機(FSM 作為 System Anchor) 在很多實時語音項目裏,WebRTC 往往被當成“核心系統”。 但只要你真的做過可插嘴(barge-in)、可中斷、不中斷就會亂套的語音交互,就會意識到一件事: WebRTC 解決的是“音頻怎麼進出”, 而不是“系統現在該不該説話”。 真正決定系統

狀態機 , System , rust , 代碼人生

yuer2025 - 只用一個 GPT 客户端,如何實現一個可控、可審計的投資決策 Runtime?

只用一個 GPT 客户端,如何實現一個可控、可審計的投資決策 Runtime? 不寫後端、不接 API、不依賴插件 在 GPT 客户端內,實現一個“可執行的人機交互運行時” 一、為什麼傳統“問答式 AI”不適合做決策? 在技術圈裏,大家已經很清楚一件事: 非結構化輸入 + 生成式輸出 ≠ 可執行系統 但在投

可執行 , 客户端 , 人工智能 , 數據結構與算法 , 結構化