tag 語言模型

標籤
貢獻30
89
08:05 PM · Nov 07 ,2025

@語言模型 / 博客 RSS 訂閱

尼古拉斯舞王 - 大模型優化秘籍:RAG技術詳解,收藏學習必備

本文深入淺出地介紹檢索增強型生成(RAG)技術,一種能顯著提升AI回答準確性的創新方法。通過結合大型語言模型與外部知識庫,RAG有效解決了AI"幻覺"問題,提供最新、可靠的信息。無論你是AI初學者還是開發者,本文將幫助你理解RAG的工作原理、核心組件、應用場景及未來趨勢,助你在AI項目中實現更精準、更可信的智能應用。 近年來,人工智能取得了巨大的飛躍,這主要歸功於大型語言模

數據 , 聊天機器人 , 語言模型 , 後端開發 , JAVA

收藏 評論

mob64ca13ff9303 - Huggingface的介紹,使用(最強Huggingface入門手冊)_小怪獸喜歡小天使的技術博客

文章目錄 一、前言 二、DeepSeek-V3.1 模型文件結構 一、前言 在當前 AI 技術討論中頻繁提及“大語言模型(Large Language Model,LLM)開源”,但它到底 “開” 出來什麼?一個開源 LLM 究竟包含哪些核心組成部分?本文將介紹 Dee

redis , 語言模型 , 權重 , 數據庫 , Json

收藏 評論

碼海探險先鋒 - 飛槳博士會第四期回顧,場景文字識別的算法創新與應用 - 飛槳PaddlePaddle的個人空間 -

DeepSeek-OCR: Optical Compression Solves LLM Long Context Challenge 文章摘要 DeepSeek-OCR提出了一種革命性的方法,通過將文本轉換為圖像並使用專門的視覺編碼器進行光學壓縮,解決了大語言模型在處理長文本時面臨的計算成本爆炸性增長問題,實現了10:1的壓縮比下97%的準

語言模型 , ocr , deepseek , 人工智能 , Css , 大模型 , 前端開發 , HTML

收藏 評論

mob64ca13fdd43c - [源碼分析] Facebook如何訓練超大模型 --- (2) -

文章目錄 實戰量化Facebook OPT模型 Facebook OPT模型介紹 auto-gptq方式量化 1、定義量化配置 2、加載模型量化 3、檢查量化正確性 4、保存量化後的模型權重 5、使用量化模型進行文本生成 6、使用自定義的數據集

數據集 , 語言模型 , 加載 , 人工智能 , Css , 前端開發 , 量化 , HTML

收藏 評論

wx6464351503832 - 強化學習(RL)簡介及其在大語言模型中的應用

看到huggingface上有個大模型課程,其中有個章節是講如何構建推理大模型,下面是對應的學習內容。 接下來會用最通俗易懂的方式介紹RL,就算之前完全沒接觸過也能看懂。會拆解核心概念,看看為什麼RL在大語言模型(LLMs)領域變得這麼重要。 什麼是強化學習(RL)? 想象一下訓練一隻狗。想教它坐下。可能會説"坐下!",如果狗坐下了,就

強化學習 , 語言模型 , 自然語言處理 , 人工智能 , Css , 大模型 , 前端開發 , HTML

收藏 評論

mob64ca1411e411 - ollama 顯存 需求

首先你需要在colab上掛載谷歌硬盤為了保存你上傳好的代碼,如果不掛載谷歌硬盤的話就會導致下次你需要重新上傳你的文件夾 點擊第三個圖標就是掛載你的谷歌硬盤。 然後需要用到以下命令進入到你的谷歌硬盤下(因為我們要把代碼放到谷歌硬盤裏,以後任何通過命令上傳到谷歌硬盤的文件也是同樣的操作) %c

github , 語言模型 , aigc , bard , ollama 顯存 需求 , Git , Python

收藏 評論

mob64ca12ea8117 - pycharm中使用llama3大模型源碼

在這篇博文中,我們將詳細記錄關於“pycharm中使用llama3大模型源碼”的經驗過程,包括背景描述、技術原理、架構解析、源碼分析、性能優化以及案例分析。通過這些內容,讀者能夠完整地瞭解如何在PyCharm中使用Llama3大模型的代碼及其實現。 背景描述 自2023年下半年以來,人工智能領域迅速發展,各類語言模型的應用變得愈發廣泛。其中,Llama3作為開源社區發佈的最新語言

語言模型 , 加載 , aigc , 應用場景

收藏 評論

mb61c46a7ab1eee - Andrej Karpathy 發佈新任務 nanochat:一個從零開始構建的極簡全棧式 ChatGPT 克隆

剛剛,Andrej Karpathy 推出了他的最新開源項目 nanochat。與之前聚焦於預訓練階段的 nanoGPT 不同,nanochat 給出了一個從頭開始、代碼極簡的全棧式類 ChatGPT 模型的訓練與推理流水線。 整個項目被整合在一個依賴極少的單一代碼庫中,旨在幫助開發者和研究者深入理解大語言模型(LLM)的完整生命週期。 根據 Karpathy 的介

數據 , 語言模型 , 權重 , 後端開發 , Python

收藏 評論

mob64ca13fdd43c - 究諸經典,探尋大模型演變之蹤跡_人工智能_Baihai IDP

關聯知識庫:# 大語言模型學術史:從分佈式表示到Transformer的演進路徑(Gregory Gundersen 2025) 大語言模型學術史:從分佈式表示到Transformer的演進路徑 發佈時間:2025年10月1日 核心主題:追溯大語言模型背後的核心思想的學術歷史 哲學視角:技術演進中

spark , 大數據 , 神經網絡 , 語言模型 , 並行化

收藏 評論

mob64ca1417b0c6 - 萬億參數落地:金融大模型從MoE架構到聯邦TEE的全棧可信實踐

———————————————————— 當大模型從“炫技”走向“深水區” 如果説2023年是大模型的“技術元年”,2024年是“場景元年”,那麼2025年則是“深水區元年”。當國務院在《“人工智能+”行動方案》中點名“金融”為落地最成熟行業時,銀行業的大模型已悄然從“對話寫詩”進階到“審批貸款”“攔截洗錢”。

語言模型 , 軟件需求 , 後端開發 , 系統架構 , 需求分析 , 人工智能 , harmonyos

收藏 評論

TwcatL - 大語言模型提示工程實戰指南:讓AI更懂你的需求

在使用ChatGPT、文心一言、LLaMA等大語言模型(LLM)時,你是否遇到過這樣的情況:同樣的需求,不同的提問方式,得到的結果天差地別;有時想讓模型生成專業報告,卻只得到泛泛而談的回答;有時希望模型解決具體問題,卻收穫一堆無關的信息。這背後的關鍵,就在於“提示工程(Prompt Engineering)”——通過設計精準、清晰的提示語,引導大語言模型輸出符合預期的結果。今天,

數據 , 我擁有了“鬆弛感”人生 , 語言模型 , 解鎖小浣熊「任務規劃」功能後 , jquery , 前端開發 , Python

收藏 評論

mob64ca140530fb - 人工智能學術速遞[2021.6.29]

摘要:本文探討了人工智能發展從“大語言模型”向“大行為模型”的範式轉變及其文明意義。通過對當前“價值對齊”範式的侷限分析,提出“AI元人文”構想,主張從靜態規則編碼轉向動態價值共生。文章系統闡述了以大行為模型為核心的技術路徑,包括“價值原語行為網絡”的構建機制、“雙模引擎”的運作原理,以及由此催生的“從裁決者文明到導演者文明”的深刻變革。最後,我們勾勒出

語言模型 , 後端開發 , 行為模型 , harmonyos , 原語

收藏 評論

上海拔俗網絡 - AI旅遊助手:不是“機器人導遊”,而是你的“智能旅行大腦”

你有沒有發現—— 出門旅遊,查攻略、比價格、訂酒店、排路線……光是準備工作就能耗掉半天? 到了目的地,問路靠地圖、找吃靠點評、改行程靠運氣,一不小心就踩坑? 更別提帶老人孩子、語言不通、突發狀況……整個旅程像在“打怪升級”。 別擔心,這不是你不會玩,而是傳統旅遊方式太“被動”、太“碎片”、太“靠運氣”。現在,一個叫“AI旅遊助手”的技術產品,正悄悄改變這一切——它不取代人,而是幫

對話系統 , 數據 , NLP , 語言模型 , 人工智能

收藏 評論

mb61c46a7ab1eee - 【論文閲讀】Sparks of Science - 指南

目錄 Abstract Introduction Related Work Methodology and the Bit-Flip-Spark+Chain-of-Reasoning Format Preprocessing and Dataset Construction Fine-tuning and Inference Pipeline

數據集 , redis , 語言模型 , 數據庫 , 結構化

收藏 評論

歲月如歌甚好 - 騰訊全文檢索引擎 wwsearch 正式開源

簡介 文章探討了RAG應用中文檔拆分與檢索的衝突問題,提出瞭解決方案:一是拆分子文檔塊並檢索父文檔塊,保留完整上下文;二是將文檔拆分為較大塊和小塊,索引小塊但檢索返回較大塊。文章詳細介紹了使用LangChain中的ParentDocumentRetriever實現這兩種策略的方法,並提供了代碼示例,幫助開發者優化檢索效果,平衡檢索準確性與上下文完整性。 一、拆

語言模型 , 開發語言 , 架構 , JAVA , 前端開發 , 重構 , Javascript

收藏 評論

clghxq - Google DeepMind 要逆天,能為 AI 賦予記憶不斷學習_weixin

Google最新發布的《AI與學習的未來》報告,為我們描繪了一幅AI技術如何支持教師、實現個性化學習,並最終釋放全球學習者潛力的藍圖。 AI讓個性化學習規模化成為可能 傳統教育面臨的最大挑戰之一,是在有限的資源下滿足每個學生獨特的學習需求。AI為此提供瞭解決方案: 個性化學習路徑:AI可以根據每個學生的知識水平、學習進

科技 , 學習 , 語言模型 , AI , 人工智能 , 數據結構與算法

收藏 評論

mb61c46a7ab1eee - 完整教程:[特殊字符] 只有更輕更快的模型還不夠:智能的真正突破在於「連接」

智能不是更強的算力,而是更廣的觸達。 一、從「算力崇拜」到「連接覺醒」 在過去七年裏,AI 世界幾乎被一種單一敍事主導:更大、更強、更聰明。 從 2017 年的 Transformer,到 GPT、PaLM、Claude、Gemini、DeepSeek——每一代模型都像一次“參數的暴力美學”,在規模、數據和算力上層層疊加。 訓練集羣越堆

真實世界 , 文件系統 , 語言模型 , 前端開發 , Javascript

收藏 評論

u_15714439 - 給Java同仁單點的AI"開胃菜"--搭建一個自己的本地問答系統

這是我參與創作者計劃的第1篇文章 大家好,因為對AI大模型很感興趣,相信很多兄弟們跟我一樣,所以最近花時間瞭解了一些,有一些總結 分享給大家,希望對各位有所幫助; 本文主要是目標是 講解如何在本地 搭建一個簡易的AI問答系統,主要用java來實現,也有一些簡單的python知識;網上很多例子都是以 ChatGPT來講解的,但因為它對國內訪問有限制,OpeAi連接太麻煩

軟件研發 , 數據 , 語言模型 , 數據庫

收藏 評論

小怪獸會微笑 - Every Token Counts: Generalizing 16M Ultra-Long Context in Large Language Models(超長文本模型論文HSA)

Every Token Counts: Generalizing 16M Ultra-Long Context in Large Language Models(超長文本模型論文HSA) 這篇論文介紹了 HSA-UltraLong,這是一個基於 分層稀疏注意力(Hierarchical Sparse Attention, HSA) 機制的模

分塊 , redis , 語言模型 , 自然語言處理 , 點積 , 數據庫 , 人工智能

收藏 評論

上海拔俗網絡 - AI 大語言模型及服務平台:從“接模型”到“可治理能力中台”的工程實踐

在很多團隊的最初方案中,“大語言模型平台”往往被理解為一件很簡單的事情: 接入一個大模型 封裝成 API 提供給業務調用 Demo 很快能跑,但一旦進入多業務、多團隊、多場景使用,就會迅速暴露出問題: 不同業務對模型口徑要求完全不同 Prompt 分散在各個服務中,無法統一管理 模型版本更新後,線上行為不可控 成本、延遲、風

限流 , NLP , 語言模型 , 緩存 , 人工智能

收藏 評論

mob64ca140ce312 - 自然語言處理每日論文速遞[01.01]

一句話講:作者提出了一種名為“感知歧義性對齊”(APA)的新型對齊流程,旨在通過利用模型自身的內在知識,增強 LLM 處理 query 中歧義性問題的能力。該方法採用隱式信息增益指標來量化模型自身感知到的模糊性,使模型能夠基於該指標通過對齊操作有效管理歧義/非歧義查詢。 論文精讀 不管是人跟人之間還是人跟 LLM 之間,溝通的時候其實經常會使

數據集 , 顯式 , 語言模型 , 自然語言處理 , 人工智能 , Css , 前端開發 , HTML

收藏 評論

mob64ca12f37e8a - 用torch運行llama模型

用torch運行llama模型 在深度學習模型的快速發展中,LLaMA(Large Language Model Meta AI)模型以其卓越的性能著稱。LLaMA模型的出現使得更高效的自然語言處理成為可能,而 PyTorch 作為一個靈活的深度學習框架,更是提供了一個良好的開發環境。在這篇文章中,我們將探討如何在 PyTorch 框架中運行 LLaMA 模型,涵蓋了從技術定位到生態

工具鏈 , 語言模型 , aigc , 深度學習

收藏 評論

mb61c46a7ab1eee - 對圖片進行解釋的大語言模型 - 實踐

文章目錄 @[toc] 一、 能夠對圖片進行解釋的大語言模型有哪些? 1. 閉源/商業API(直接使用,無需部署) 2. 開源/可自部署(重點) 二、 開源的有哪些? 三、 哪些可以部署在自己的機器上? 四、 對機器的最低要求是什麼? 分級推薦配

API , 語言模型 , 後端開發 , 模態 , harmonyos

收藏 評論

智能領航員 - 2018 年 Top 10 影響力 AI 研究論文-

大語言模型服務系統服務級目標和系統級指標優化研究 論文信息 論文原標題:大語言模型服務系統服務級目標和系統級指標優化研究 主要作者及研究機構: 王智彬、李世鵬、周宇航、李雪、張中輝、蔣智威、顧榮、田臣、陳貴海、仲盛 研究機構:1. 計算機軟件新技術全國重點實驗室(南京大學),南京 210023

處理速度 , 論文閲讀 , 詞元 , 語言模型 , 人工智能 , 前端開發 , Javascript

收藏 評論