tag llm

標籤
貢獻56
230
12:33 PM · Oct 26 ,2025

@llm / 博客 RSS 訂閱

MatrixOrigin - MatrixOne Intelligence 4.0 全新升級:讓數據智能觸手可及!

MatrixOne Intelligence 4.0 全新升級:讓數據智能觸手可及! MatrixOne Intelligence 介紹 MatrixOne Intelligence 是一套面向多模態數據的 AI 數據智能平台,旨在幫助企業應對數據碎片化、多模態數據整合複雜、GenAI 應用落地困難等挑戰。通過數據接入、智能解析、數據工作流、超融合的湖倉底座,MatrixOne Intellige

llm , 數據挖掘 , 數據庫 , 人工智能 , SQL

收藏 評論

Baihai_IDP - 壓縮而不失智:LLM 量化技術深度解析

編者按: 如何在資源受限的設備上高效部署大語言模型,同時還儘可能保持其性能表現? 我們今天為大家帶來的這篇文章,作者的核心觀點是:量化技術通過在模型精度與效率之間尋找最優平衡點,使得大語言模型能夠在資源受限的設備上高效部署,而幾乎不降低其“智能水平”。 文章從量化的基本原理出發,深入剖析了訓練後量化(PTQ)與量化感知訓練(QAT)的適用場景,詳細解釋了縮放因子、零點、對稱/非對稱量化等關

generative-ai , 觀點 , llm , 知識 , 人工智能

收藏 評論

deephub - 氛圍編程陷阱:為什麼AI生成代碼正在製造大量"偽開發者"

這是一篇再國外討論非常火的帖子,我覺得不錯所以把它翻譯成了中文。 大語言模型和ai只能提的發展衍生出了一個東西叫"vibe coding"(氛圍編程)——用自然語言描述需求,讓AI生成代碼,看起來不用寫代碼就能做出產品。 但這玩意兒本質上是個陷阱。它培養的不是開發者,而是一羣只會生成代碼、卻看不懂也改不了代碼的"中間商"。 對新手來説,這不是什麼職業捷徑。這是條斷頭路,而且很多人正往裏衝。 氛圍編

觀點 , llm , 神經網絡 , 人工智能 , 深度學習

收藏 評論

Baihai_IDP - Andrej Karpathy:2025 年 LLM 領域的六項範式轉變

編者按: 我們今天為大家帶來的文章,作者的核心觀點是:2025年大語言模型的真正突破不在於參數規模的擴張,而在於訓練範式、智能形態與應用架構的深層轉變——尤其是基於可驗證獎勵的強化學習(RLVR)、AI作為“幽靈”而非“動物”的認知重構,以及面向垂直場景的新型LLM應用層的崛起。 文章系統回顧了 2025 年 LLM 領域的六大關鍵趨勢:首先,RLVR 成為新訓練核心,通過可自動驗證的獎勵信

generative-ai , 觀點 , llm , 知識 , 人工智能

收藏 評論

deephub - CALM自編碼器:用連續向量替代離散token,生成效率提升4倍

過去這些年語言模型的效率優化基本圍繞着兩條主線展開:參數規模和注意力機制的複雜度。但有個更根本的問題一直被忽視,那就是自迴歸生成本身的代價。這種逐token生成的模式讓模型具備了強大的通用性,同時也帶來了難以迴避的計算開銷。 現在有一種思路值得關注:不去替換現有的優化手段,而是在上層加一個潛在空間的映射層,直接削減前向傳播的次數。 每次讓GPT-5寫封郵件模型都得一個token一個token地往外

llm , 人工智能 , 深度學習

收藏 評論

Lab4AI - NeurIPS 2025 Spotlight|還在為KV緩存爆炸苦惱?清華團隊重新設計注意力

論文名稱:Tensor Product Attention Is All You Need 發佈時間:2025年10月23日 👉一鍵直達論文 👉一鍵直達Github 👉Lab4AI大模型實驗室論文閲讀 ✨研究背景 大型語言模型在處理長輸入序列時面臨顯著的計算和內存挑戰,主要瓶頸在於自迴歸解碼過程中鍵值(KV)緩存的內存開銷隨序列長度線性增長。現有方法如稀疏注意力、多查詢注意力(MQA)、

機器學習 , llm , 算法 , chatgpt , 人工智能

收藏 評論

Lab4AI - 重磅!圖靈獎得主 Bengio 領銜 30 + 頂流學者聯合發文!首次給 AGI 下量化定義

論文標題:A Definition of AGI 作者團隊:人工智能安全中心、加州大學伯克利分校、Morph實驗室、密歇根大學等 發佈時間:2025年10月21日 👉一鍵直達論文 👉Lab4AI大模型實驗室論文閲讀 ✅Lab4AI平台提供AI導讀和AI翻譯等工具,輔助論文閲讀。您還可以投稿復現這篇論文~ ⭐論文簡介 本文旨在提出一個全面、可量化的框架,以澄清AGI的定義,並精確測量AI系統

機器學習 , llm , 算法 , 人工智能 , 深度學習

收藏 評論

王中陽講編程 - RAG的教程還是Python的豐富呀,咱們也想辦法給Go生態做做貢獻吧,哈哈。

強烈推薦 這是我們各種調研對比實操之後,覺得最好的RAG教程,沒有之一:https://datawhalechina.github.io/all-in-rag/#/ 我這麼説吧,這個教程你可以直接當八股來背,把這位大佬總結的內容吃透,出去面試就不用發愁了。 當然了,他的實操案例也是挺好理解的,方便新手入門上手。 對我的粉絲來講,美中不足的就是:他是Python的教程,我的粉絲絕大多數都是g

llm , 教程 , go

收藏 評論

薛 - LLM調用為什麼不能像requests一樣簡單?上下文管理就不能自動搞定嗎?

兄弟們,我今天在github上發了一個庫 —— chak, 極簡風格連接全球主流模型,重點是 —— 可以自動管理上下文,確實方便 項目在這裏:https://github.com/zhixiangxue/chak-ai 説説我為啥要寫這個庫哈~ 我自己的幾個痛點: OpenAI的API很方便,但上下文得自己管 每次對話一長,自己算token、截斷歷史、寫策略...重複勞動,煩。

llm , gateway , requests , 上下文管理器

收藏 評論

合合技術團隊 - 【論文解讀】用於代碼處理的語言模型綜述

1.簡要介紹 在這項工作中,論文系統地回顧了在代碼處理方面的最新進展,包括50個+模型,30個+評估任務和500個相關工作。論文將代碼處理模型分解為由GPT家族表示的通用語言模型和專門預訓練的代碼模型,通常具有定製的目標。論文討論了這些模型之間的關係和差異,並強調了代碼建模從統計模型和rnn到預訓練的transformer和LLM的歷史轉變,這與NLP所採取的過程完全相同。還討論了特定於代碼的特

code , llm , 人工智能 , 模型

收藏 評論

Momodel - ColBERT——以詞元級別的向量嵌入提升信息檢索效果

介紹 檢索增強一代 (RAG) 自成立以來就風靡全球。RAG 是大型語言模型 (LLM) 提供或生成準確和事實答案所必需的。我們通過RAG解決LLM的事實性,我們嘗試為LLM提供一個與用户查詢上下文相似的上下文,以便LLM將處理此上下文並生成事實正確的響應。我們通過以向量嵌入的形式表示我們的數據和用户查詢並執行餘弦相似性來做到這一點。但問題是,所有傳統方法都以單個嵌入表示數據,這對於良好的檢索系統

llm , 向量 , 編碼 , 人工智能 , 檢索系統

收藏 評論

deephub - LLM代理應用實戰:構建Plotly數據可視化代理

如果你嘗試過像ChatGPT這樣的LLM,就會知道它們幾乎可以為任何語言或包生成代碼。但是僅僅依靠LLM是有侷限的。對於數據可視化的問題我們需要提供一下的內容 描述數據:模型本身並不知道數據集的細節,比如列名和行細節。手動提供這些信息可能很麻煩,特別是當數據集變得更大時。如果沒有這個上下文,LLM可能會產生幻覺或虛構列名,從而導致數據可視化中的錯誤。 樣式和偏好:數據可視化是一種藝術形式,每個人都

llm , 代理 , 人工智能 , 深度學習 , 可視化

收藏 評論

慧星雲 - Qwen2-Math碾壓GPT-4:AI數學大師誕生!

Qwen2-Math 阿里巴巴開源的Qwen2-Math模型以驚人的84%準確率橫空出世,不僅超越了GPT-4o,更是將Claude-3.5-Sonnet和Gemini-1.5-Pro等一眾AI巨頭甩在身後。這個AI數學大師的誕生,是否預示着人工智能在精確科學領域的新紀元即將到來? Qwen2-Math 官方數據圖展示 Qwen2-Math的基礎模型使用Qwen2-1.5B/7B/

llm , 阿里巴巴 , 雲計算 , 人工智能

收藏 評論

慧星雲 - Gemini 2.0:集多模態、強性能、優交互於一身的 AI 新寵

谷歌 在科技飛速發展的當下,人工智能領域不斷涌現出令人矚目的創新成果,谷歌推出的新一代大模型Gemini2.0無疑是其中一顆璀璨的新星,正以其卓越的性能和強大的功能,為我們開啓了智能化交互的嶄新篇章。 Gemini2.0 Gemini2.0 使用Gemini2.0構建的最新版本中的改進包括: 更順暢的對話:ProjectAstra現在能夠使用多種語言和混合語言進行交談,從而更好地理

llm , 雲計算 , google , aigc , 人工智能

收藏 評論

deephub - 使用PyTorch實現GPT-2直接偏好優化訓練:DPO方法改進及其與監督微調的效果對比

基於人類反饋的強化學習(RLHF)已成為大型語言模型(LLM)訓練流程中的關鍵環節,並持續獲得研究界的廣泛關注。 本文將探討RLHF技術,特別聚焦於直接偏好優化(Direct Preference Optimization, DPO)方法,並詳細闡述了一項實驗研究:通過DPO對GPT-2 124M模型進行調優,同時與傳統監督微調(Supervised Fine-tuning, SFT)方法進行對比

機器學習 , llm , pytorch , 人工智能 , 優化

收藏 評論

超神經HyperAI - 【vLLM 學習】歡迎來到 vLLM!

vLLM 是一款專為大語言模型推理加速而設計的框架,實現了 KV 緩存內存幾乎零浪費,解決了內存管理瓶頸問題。 更多 vLLM 中文文檔及教程可訪問 →https://vllm.hyper.ai/ vLLM 是一個快速且易於使用的庫,專為大型語言模型 (LLM) 的推理和部署而設計。 vLLM 的核心特性包括: 最先進的服務吞吐量 使用 PagedAttention 高效管理注意力鍵和值的內

機器學習 , llm , 框架 , 人工智能 , 深度學習

收藏 評論

超神經HyperAI - 甲骨實物高保真數據歸國,AI助力古文釋讀,發現甲骨新圖像

「明年我們去法國接甲骨文回家」,2024 年 12 月下旬,安陽師範學院甲骨文信息處理教育部重點實驗室的研究人員遠赴法國,與法國國家圖書館等 4 家甲骨文收藏機構簽訂合作協議,將以數字化形態將已經遠離故土許久的甲骨文文化遺產「接回家」。 2024 年 8 月 5 日,「全球甲骨數字迴歸計劃」正式啓程,實驗室主任劉永革帶領團隊成員張展、李邦、郭安、龔慕凡飛往韓國,於 8 月 13 日帶回了 7 片甲

機器學習 , llm , 3d , 人工智能 , 深度學習

收藏 評論

Bruce - AI時代,程序員究竟是懶了,還是更強了?

在不遠的過去,當 IDE 剛剛誕生時,老一代程序員曾擔心程序員的基本功會退化,認為 IDE 限制了程序員的靈活性,擔心代碼質量會因此下降。 “使用 IDE 就像小學生在考試時帶計算器,它讓程序員變懶。” “真正的程序員不需要 IDE,只需要一個簡單的編輯器和終端。” “自動生成的代碼就像速食品,方便但不健康。” “我寧願用 vi,Eclipse 啓動時間足夠我編譯一遍了。” “一個好的

llm , emacs , cursor , vim , visual-studio

收藏 評論

vivo互聯網技術 - NLLB 與 ChatGPT 雙向優化:探索翻譯模型與語言模型在小語種應用的融合策略

作者:來自 vivo 互聯網算法團隊- Huang Minghui 本文探討了 NLLB 翻譯模型與 ChatGPT 在小語種應用中的雙向優化策略。首先介紹了 NLLB-200 的背景、數據、分詞器和模型,以及其與 LLM(Large Language Model)的異同和協同關係。接着列舉了實戰與應用的案例,包括使用 ChatGPT 生成的樣本微調 NLLB-200 和使用 NLLB-200 的

llm , chatgpt , 人工智能 , 翻譯

收藏 評論

da_miao_zi - 氛圍編程Vibe Coding的梗圖

今年 2 月初,OpenAI 聯合創始人、前特斯拉 AI 負責人 Andrej Karpathy 於社交平台上提出了氛圍編程 Vibe Coding 這一概念。僅僅過了一個多月,這一術語就迅速席捲了開發者社區。 最近,Karpathy 又在社交媒體上分享了他的最新嘗試:“剛用‘氛圍編程’搞定了一個完整的 iOS 應用!雖然之前完全沒碰過 Swift,但也就 1 個多小時吧,這個 app 就已經能在

code , generative-ai , llm , 人工智能

收藏 評論

月恆 - Browser-use:基於 Python 的智能瀏覽器自動化 AI 工具調研與實戰

Browser-use:基於 Python 的智能瀏覽器自動化 AI 工具調研與實戰 一、概述 Browser-use 是一個旨在將 AI “智能體”(Agents)與真實瀏覽器進行交互的 Python 庫,可以輕鬆實現瀏覽器自動化。在配合 LLM(如 GPT 系列)使用時,瀏覽器-use 能夠讓你的智能體發起對網頁的訪問、操作頁面元素、收集信息、執行腳本等,從而擴展 AI 應用的落地場景。

llm , 數據挖掘 , 瀏覽器 , 人工智能 , Python

收藏 評論

amc - AI 寫文章系列——Ubuntu 24.04 pipx install 解決 ModuleNotFoundError 問題

概述 自從轉 Go 之後,好久沒寫 Python 了。最近在 Ubuntu 24.04 中使用 pipx 安裝了一個工具之後,運行報依賴錯誤。把上下文餵給 DeepSeek 之後,最終解決了問題。 我讓 DeepSeek 回顧問答的上下文,整理了一篇文章出來——不過相比上一篇,這次我人工介入修改的內容多得多。 問題提出 最近需要扣一個圖,把我的證件照背景顏色換一換。搜了一下,在 Github 上

llm , python3.x , php , deepseek , Python

收藏 評論

amc - 騰訊 tRPC-Go 教學——(8)通過泛 HTTP 能力實現和觀測 MCP 服務

最近 MCP 大火,其實 tRPC 也可以提供泛 HTTP 接入的能力。內網其實已經對 mcp-go 進行了封裝並支持,但是相關代碼還沒有同步到開源版上。 不過實際上,在 tRPC 框架也是可以接入各種泛 HTTP 能力的。本文就以 mcp-go 和 tRPC 結合作為引子,也介紹一下在 Cursor 等 AI 生產力工具中如何開發和使用 MCP 能力吧。 系列文章 騰訊 tRPC-Go 教學

llm , 騰訊 , cursor , rpc , go

收藏 評論

PoloAPI - 谷歌正式推出 Gemini 2.5 系列模型,使 AI 推理性能提升30%。

谷歌於2025年6月正式推出‌Gemini 2.5系列模型‌,核心聚焦推理效率與多模態能力升級,具體解讀如下: 🚀 ‌一、三大模型定位與技術亮點‌ ‌Gemini 2.5 Pro‌ ‌角色定位‌:主攻複雜推理與多模態分析(“思考型模型”),在數學、編碼任務中刷新LMArena榜單記錄。 ‌上下文能力‌:支持100萬token輸入(計劃擴展至200萬),可解析代碼庫、大型數據集及混合媒

llm , 算法 , google , 人工智能 , 深度學習

收藏 評論