@llm

Stories List
@ting_61d6d9790dee8

前沿速覽:Cursor 2.0、Firefly Image5、Agent HQ 、Kimi-k2 Thinking

AI Compass前沿速覽:Cursor 2.0、Firefly Image5、Agent HQ 、LongCat-Video、Kimi-k2 Thinking AI-Compass 致力於構建最全面、最實用、最前沿的AI技術學習和實踐生態,通過六大核心模塊的系統化組織,為不同層次的學習者和開發者提供從完整學習路徑。 github地址:AI-Compass👈:https://github.

ting_61d6d9790dee8 Avatar

@ting_61d6d9790dee8

Nickname 汀丶

@dayong_59b0e68b1ed0d

Java程序員該如何快速上手LLM應用開發呢?

文 / 勇哥 原創文章,轉載請聯繫授權 作為一名在Java領域摸爬滾打快20年的"老碼農",我經常聽到身邊的Java開發者發出這樣的感嘆:"大模型時代來了,我們Java開發者該何去何從?"、"Python在AI領域這麼火,我們要不要轉語言?" 今天,我想告訴大家的是:完全沒必要!作為Java開發者,你完全可以利用自己已有的技能棧,快速上手LLM應用開發。 在過去的一年裏,我嘗試了把多種

dayong_59b0e68b1ed0d Avatar

@dayong_59b0e68b1ed0d

Nickname 六邊形架構

@u_16827017

LLM 對時間序列推理的增強究竟指的是什麼?LLM 對齊(alignment regimes)與時序推理的可靠性之間是什麼關係?

時間序列數據廣泛出現於自然科學、社會科學以及工程技術等各類領域中,其核心特徵在於數據隨時間的演變規律。長期以來,如何從這些動態變化的數據中提取有價值的信息、實現精準預測、並基於歷史數據進行推理,一直是數據分析、統計學和機器學習研究的核心問題。傳統的時間序列分析方法,如自迴歸模型(AR)、移動平均模型(MA)、以及更復雜的狀態空間模型和卡爾曼濾波器,在一定程度上能夠描述和預測數據的

u_16827017 Avatar

@u_16827017

Nickname 全棧技術開發者

@baihai_idp

並行智能體是否將重塑軟件開發模式?

編者按: 當AI不僅能寫代碼,還能同時處理多個開發任務,軟件工程師這一角色是否正面臨根本性的重塑? 我們今天為大家帶來的文章,作者的核心觀點是:並行智能體是將深刻改變軟件開發模式的革命性技術。 作者從 AI 編程工具的演進談起,揭示了從 Copilot 的代碼補全到“氛圍編程”的自然語言生成,再到當前的範式突破 —— 並行智能體。作者還坦誠分享了實際應用中的成功率分佈,指出了智能體擅長與不

baihai_idp Avatar

@baihai_idp

Nickname Baihai_IDP

@seatunnel

LLM 時代,DataAgent × WhaleTunnel 如何將數據庫變更瞬時 “轉譯” 為洞察?

在軟件世界中,用户的形態正在發生變化。 過去,軟件的使用者是工程師、分析師或運維人員;而如今,他們正在被一羣“數字化身”——Agent 所取代。AI 不再只是一個算法模型,而是逐漸演變為能理解業務語境、自動執行任務、並進行協同決策的智能體。 隨着大模型技術的快速成熟,這場以 “Agent 化” 為核心的軟件革命,正推動企業數據系統從傳統的自動化,走向真正的智能化。 在這一趨勢中,數據基礎設施的智

seatunnel Avatar

@seatunnel

Nickname SeaTunnel

@dayong_59b0e68b1ed0d

別再選錯!5分鐘掌握AI Agent框架選型的方法

文 / 勇哥 原創文章,轉載請聯繫授權 在前一篇文章中,我們探討了《大模型應用開發技術路線(下):智能代理與多模態應用指南》。今天,讓我們深入剖析AI Agent開發框架——這個被稱為AI應用開發的"樂高積木"的標準化工具集。 作為長期從事技術應用開發的"老司機",我見證了太多團隊因為選擇錯了開發框架,導致項目週期延長、開發效率低下、系統穩定性差的痛點。在AI時代,如何選擇一個合適的A

dayong_59b0e68b1ed0d Avatar

@dayong_59b0e68b1ed0d

Nickname 六邊形架構

@dayong_59b0e68b1ed0d

大模型應用開發技術路線(中):大模型微調與定製從概念到落地

文 / 勇哥 原創文章,轉載請聯繫授權 關注公眾號「六邊形架構」,及時瞭解更多的技術分享和項目經驗 我是勇哥,一名在技術領域摸爬滾打10多年的技術老兵。繼上一篇《大模型應用開發技術路線(上):從概念到RAG實戰,這套方法論讓我從0到1落地企業級AI應用》之後,我想跟大家分享一下我在學習和應用大模型應用開發過程中對於大模型微調與定製的一些經驗和發現。 今天,讓我們深入剖析大模型微調

dayong_59b0e68b1ed0d Avatar

@dayong_59b0e68b1ed0d

Nickname 六邊形架構

@huandanshendeshoushudao

Qwen2-Math碾壓GPT-4:AI數學大師誕生!

Qwen2-Math 阿里巴巴開源的Qwen2-Math模型以驚人的84%準確率橫空出世,不僅超越了GPT-4o,更是將Claude-3.5-Sonnet和Gemini-1.5-Pro等一眾AI巨頭甩在身後。這個AI數學大師的誕生,是否預示着人工智能在精確科學領域的新紀元即將到來? Qwen2-Math 官方數據圖展示 Qwen2-Math的基礎模型使用Qwen2-1.5B/7B/

huandanshendeshoushudao Avatar

@huandanshendeshoushudao

Nickname 慧星雲

@openbayescom

OpenBayes 一週速覽丨Qwen-Image-Edit 實現圖片文字精準編輯;Nemotron 數據集含超 2K 萬條樣本

公共資源速遞This Weekly Snapshots ! 7 個公共數據集: Nemotron 多領域推理數據集 Trendyol 安全指令調優數據集 InteriorGS 3D 室內場景數據集 CSEMOTIONS 情緒音頻數據集 LongText-Bench 文本理解基準數據集 Document Haystack 多模態文檔基準數據集 CognitiveKernel-Pro-

openbayescom Avatar

@openbayescom

Nickname OpenBayes

@huikaichedemianbao

【論文解讀】用於代碼處理的語言模型綜述

1.簡要介紹 在這項工作中,論文系統地回顧了在代碼處理方面的最新進展,包括50個+模型,30個+評估任務和500個相關工作。論文將代碼處理模型分解為由GPT家族表示的通用語言模型和專門預訓練的代碼模型,通常具有定製的目標。論文討論了這些模型之間的關係和差異,並強調了代碼建模從統計模型和rnn到預訓練的transformer和LLM的歷史轉變,這與NLP所採取的過程完全相同。還討論了特定於代碼的特

huikaichedemianbao Avatar

@huikaichedemianbao

Nickname 合合技術團隊

@da_miao_zi

氛圍編程Vibe Coding的梗圖

今年 2 月初,OpenAI 聯合創始人、前特斯拉 AI 負責人 Andrej Karpathy 於社交平台上提出了氛圍編程 Vibe Coding 這一概念。僅僅過了一個多月,這一術語就迅速席捲了開發者社區。 最近,Karpathy 又在社交媒體上分享了他的最新嘗試:“剛用‘氛圍編程’搞定了一個完整的 iOS 應用!雖然之前完全沒碰過 Swift,但也就 1 個多小時吧,這個 app 就已經能在

da_miao_zi Avatar

@da_miao_zi

Nickname da_miao_zi

@openbayescom

OpenBayes 一週速覽丨公共模型一鍵部署功能上線!VibeVoice1.5B重新定義TTS技術邊界,多人長對話一鍵生成

新功能上線 平台公共模型界面現已推出「一鍵部署」功能,具體使用方式如下: 進入「公共模型」,點擊模型右側的「小火箭」標識,即可快速部署該模型。 也可以在點擊模型後,選擇右上角「部署當前版本」進行部署。 本週資源更新 4 個公共教程: 微軟 VibeVoice-1.5B 重新定義 TTS 技術邊界 vLLM+Open WebUl 部署 gemma-3-270m-it vLLM

openbayescom Avatar

@openbayescom

Nickname OpenBayes

@amc

騰訊 tRPC-Go 教學——(8)通過泛 HTTP 能力實現和觀測 MCP 服務

最近 MCP 大火,其實 tRPC 也可以提供泛 HTTP 接入的能力。內網其實已經對 mcp-go 進行了封裝並支持,但是相關代碼還沒有同步到開源版上。 不過實際上,在 tRPC 框架也是可以接入各種泛 HTTP 能力的。本文就以 mcp-go 和 tRPC 結合作為引子,也介紹一下在 Cursor 等 AI 生產力工具中如何開發和使用 MCP 能力吧。 系列文章 騰訊 tRPC-Go 教學

amc Avatar

@amc

Nickname amc

@vivo_tech

NLLB 與 ChatGPT 雙向優化:探索翻譯模型與語言模型在小語種應用的融合策略

作者:來自 vivo 互聯網算法團隊- Huang Minghui 本文探討了 NLLB 翻譯模型與 ChatGPT 在小語種應用中的雙向優化策略。首先介紹了 NLLB-200 的背景、數據、分詞器和模型,以及其與 LLM(Large Language Model)的異同和協同關係。接着列舉了實戰與應用的案例,包括使用 ChatGPT 生成的樣本微調 NLLB-200 和使用 NLLB-200 的

vivo_tech Avatar

@vivo_tech

Nickname vivo互聯網技術

@chaoshenjinghyperai

甲骨實物高保真數據歸國,AI助力古文釋讀,發現甲骨新圖像

「明年我們去法國接甲骨文回家」,2024 年 12 月下旬,安陽師範學院甲骨文信息處理教育部重點實驗室的研究人員遠赴法國,與法國國家圖書館等 4 家甲骨文收藏機構簽訂合作協議,將以數字化形態將已經遠離故土許久的甲骨文文化遺產「接回家」。 2024 年 8 月 5 日,「全球甲骨數字迴歸計劃」正式啓程,實驗室主任劉永革帶領團隊成員張展、李邦、郭安、龔慕凡飛往韓國,於 8 月 13 日帶回了 7 片甲

chaoshenjinghyperai Avatar

@chaoshenjinghyperai

Nickname 超神經HyperAI

@momodel

ColBERT——以詞元級別的向量嵌入提升信息檢索效果

介紹 檢索增強一代 (RAG) 自成立以來就風靡全球。RAG 是大型語言模型 (LLM) 提供或生成準確和事實答案所必需的。我們通過RAG解決LLM的事實性,我們嘗試為LLM提供一個與用户查詢上下文相似的上下文,以便LLM將處理此上下文並生成事實正確的響應。我們通過以向量嵌入的形式表示我們的數據和用户查詢並執行餘弦相似性來做到這一點。但問題是,所有傳統方法都以單個嵌入表示數據,這對於良好的檢索系統

momodel Avatar

@momodel

Nickname Momodel

@deephub

LLM代理應用實戰:構建Plotly數據可視化代理

如果你嘗試過像ChatGPT這樣的LLM,就會知道它們幾乎可以為任何語言或包生成代碼。但是僅僅依靠LLM是有侷限的。對於數據可視化的問題我們需要提供一下的內容 描述數據:模型本身並不知道數據集的細節,比如列名和行細節。手動提供這些信息可能很麻煩,特別是當數據集變得更大時。如果沒有這個上下文,LLM可能會產生幻覺或虛構列名,從而導致數據可視化中的錯誤。 樣式和偏好:數據可視化是一種藝術形式,每個人都

deephub Avatar

@deephub

Nickname deephub

@deephub

LangGraph實戰:從零構建智能交易機器人,讓多個AI智能體像投資團隊一樣協作

現在的量化交易早就不是簡單的技術指標了。真正有效的交易系統需要像一個完整的投資團隊一樣工作——有專門的分析師收集各種數據,有研究員進行深度分析和辯論,有交易員制定具體策略,還有風險管理團隊把關。問題是傳統的程序很難模擬這種複雜的協作流程。 LangGraph的多智能體架構正好解決了這個問題。我們可以構建一個像真實投資公司一樣運作的系統,每個智能體負責特定的職能,它們之間可以進行辯論、協商,最終形成

deephub Avatar

@deephub

Nickname deephub

@dayong_59b0e68b1ed0d

大模型應用開發技術路線(下):智能代理與多模態應用開發指南

文 / 勇哥 原創文章,轉載請聯繫授權 關注公眾號「六邊形架構」,及時瞭解更多的技術分享和項目經驗 在前兩篇文章中,我們探討了《大模型應用開發技術路線(上):從概念到RAG實戰指南》和《大模型應用開發技術路線(中):大模型微調與定製實戰指南》。今天,讓我們繼續探索大模型應用開發的前沿技術路線——智能代理(Agent)開發和多模態應用開發。 作為一名在AI領域"衝浪"多年的技術老兵

dayong_59b0e68b1ed0d Avatar

@dayong_59b0e68b1ed0d

Nickname 六邊形架構

@chaoshenjinghyperai

【vLLM 學習】Mistral-small

vLLM 是一款專為大語言模型推理加速而設計的框架,實現了 KV 緩存內存幾乎零浪費,解決了內存管理瓶頸問題。 更多 vLLM 中文文檔及教程可訪問 →https://vllm.hyper.ai/ *在線運行 vLLM 入門教程:零基礎分步指南 源碼examples/offline_inference/mistral-small.py # SPDX-License-Identifier: Apac

chaoshenjinghyperai Avatar

@chaoshenjinghyperai

Nickname 超神經HyperAI

@deephub

使用PyTorch實現GPT-2直接偏好優化訓練:DPO方法改進及其與監督微調的效果對比

基於人類反饋的強化學習(RLHF)已成為大型語言模型(LLM)訓練流程中的關鍵環節,並持續獲得研究界的廣泛關注。 本文將探討RLHF技術,特別聚焦於直接偏好優化(Direct Preference Optimization, DPO)方法,並詳細闡述了一項實驗研究:通過DPO對GPT-2 124M模型進行調優,同時與傳統監督微調(Supervised Fine-tuning, SFT)方法進行對比

deephub Avatar

@deephub

Nickname deephub

@huandanshendeshoushudao

Gemini 2.0:集多模態、強性能、優交互於一身的 AI 新寵

谷歌 在科技飛速發展的當下,人工智能領域不斷涌現出令人矚目的創新成果,谷歌推出的新一代大模型Gemini2.0無疑是其中一顆璀璨的新星,正以其卓越的性能和強大的功能,為我們開啓了智能化交互的嶄新篇章。 Gemini2.0 Gemini2.0 使用Gemini2.0構建的最新版本中的改進包括: 更順暢的對話:ProjectAstra現在能夠使用多種語言和混合語言進行交談,從而更好地理

huandanshendeshoushudao Avatar

@huandanshendeshoushudao

Nickname 慧星雲

@chunzhendexiaogou

谷歌正式推出 Gemini 2.5 系列模型,使 AI 推理性能提升30%。

谷歌於2025年6月正式推出‌Gemini 2.5系列模型‌,核心聚焦推理效率與多模態能力升級,具體解讀如下: 🚀 ‌一、三大模型定位與技術亮點‌ ‌Gemini 2.5 Pro‌ ‌角色定位‌:主攻複雜推理與多模態分析(“思考型模型”),在數學、編碼任務中刷新LMArena榜單記錄。 ‌上下文能力‌:支持100萬token輸入(計劃擴展至200萬),可解析代碼庫、大型數據集及混合媒

chunzhendexiaogou Avatar

@chunzhendexiaogou

Nickname PoloAPI

@deephub

Google開源Tunix:JAX生態的LLM微調方案來了

JAX生態這兩年在LLM訓練這塊追趕得挺快。PyTorch雖然還是主流但JAX在並行計算、TPU加速和API組合性上確實有些獨特的優勢。Google今天放出了Tunix這個庫,專門做LLM的後訓練——微調、強化學習、知識蒸餾這些都能搞。 Tunix是什麼 這是個構建在JAX之上的後訓練庫,和Flax NNX集成得比較緊密。主要解決三類問題: 監督微調(Supervised Fine-T

deephub Avatar

@deephub

Nickname deephub