tag 概率分佈

標籤
貢獻13
63
03:54 PM · Nov 15 ,2025

@概率分佈 / 博客 RSS 訂閱

智能探索者 - 每天學命令<all_op_conds>_Tao

🌟 Temperature Top P 一句話總結: Temperature = AI的"膽量"(膽小→保守,大膽→創意) Top P = AI的"選詞範圍"(小範圍→熱門詞,大範圍→冷門詞) 🧠 一、Temperature:AI的"膽量" ✅ 原理: 温度低(0.1)

Css , 前端開發 , 概率分佈 , HTML

收藏 評論

是大魔術師 - diceloss與交叉熵的權重

1.信息量與信息熵 香農在他著名的論文”通信的數學原理“(A Mathematic Theory of Communication)中提出了”信息熵“的概念,解決了信息的度量問題,並且量化出信息的作用。 一條信息的信息量與其不確定性有着直接的關係。比如説,我們要搞清楚一件非常非常不確定的事,或是我們一無所知的事情,就需要了解大量的信息。相反,

互信息 , 損失函數 , 人工智能 , 深度學習 , diceloss與交叉熵的權重 , 概率分佈

收藏 評論

wx59290cd7bb11a - 大模型是“嚴謹理工男”還是“浪漫詩人”?架構師手中的兩把調教“密鑰”:Temperature 與 Top-P

💡 本文價值提示 你是否遇到過這種情況:同一個 Prompt,有時候模型回答得一本正經,有時候卻胡言亂語?或者你想讓模型寫代碼,它卻給你編造了一個不存在的庫? 作為從大數據轉型而來的架構師,你習慣了 SQL 查詢結果的“確定性”(1+1 永遠等於 2)。但在 AI 的世界裏,“概率”才是王道。 本文將帶你深入 LLM 的“大腦皮層”,揭示控制模型輸出性格的兩個核

大數據 , 數據倉庫 , SQL , 架構師 , 概率分佈

收藏 評論

WangLanguager - 貝葉斯網絡

貝葉斯網絡(Bayesian Network)介紹 1.基本概念 貝葉斯網絡(Bayesian Network)是一種有向無環圖(DAG),用於表示變量之間的條件依賴關係。它結合了概率論和圖論,能夠以直觀的方式表示變量之間的概率關係,並通過圖形結構進行高效的推理和計算。貝葉斯網絡的核心是利用貝葉斯定理進行概率推理。 2.組成要素

yyds乾貨盤點 , 貝葉斯網絡 , Css , 前端開發 , ide , 概率分佈 , HTML

收藏 評論

wx65950818d835e - 11: 變分自編碼器(VAE)在超分中的應用

引言 變分自編碼器(Variational Autoencoder,VAE)是一種生成模型,它通過優化潛在變量的分佈來學習數據的潛在結構。與傳統的自編碼器不同,VAE將輸入數據映射到一個概率分佈空間,而不是單一的點。這種機制使得VAE在生成任務中能夠提供更豐富的樣本生成能力。在圖像超分辨率(SR)任務中,VAE的生成能力可以幫助恢復圖像中的高頻細節,生成更加自然的高分辨率圖

編碼器 , 數據 , c++ , 後端開發 , c , 概率分佈

收藏 評論

未聞花名AI - 構建AI智能體:二十六、語言模型的“解碼策略”:一文讀懂AI文本生成的採樣方法

一、開篇導語 不知道大家有沒有刷到過一個趣味玩法,在輸入法的文本框以一個什麼字開頭,一直按下一個下一個,可以生成一句看似完整且有趣的話,這是最早期的通過鍵盤記憶形成的詞組文本。再看看近期豆包和deepseek大火,大家有沒有嘗試過給他們輸入一個簡短的文本或情節,讓他們進行續寫,生成一段內容,經歷過這些,不知道你是否曾好奇,這些功能強大的AI工具,是如何從“今天天氣真好”這樣

yyds乾貨盤點 , API , 搜索 , NLP , 人工智能 , 概率分佈

收藏 評論

未聞花名AI - 構建AI智能體:六十一、信息論完全指南:從基礎概念到在大模型中的實際應用

一、理解信息論 想象一下這樣的場景,我們每天出門都會查看天氣預報,如果預報總是説"今天晴,氣温25度",久而久之你會覺得這信息索然無味,因為太確定了。但如果預報説"今天有80%概率下雨",我們就會格外留意,甚至帶傘出門,這種不確定性反而讓信息更有價值。 這正是信息論的精髓所在,就像收拾行李箱時,把所有物品整齊分類(低熵)比胡亂塞進去(高熵)更容易找到想要的東西。在大語

機器學習 , AIGC二三事 , 信息論 , 人工智能 , 信息熵 , 概率分佈

收藏 評論

雲端小悟空 - lda主題分析確定主題數量 lda主題分析用什麼 軟件

前言 gamma函數 0 整體把握LDA 1gamma函數 beta分佈 1 beta分佈 2Beta-Binomial 共軛 3 共軛先驗分佈 4 從beta分佈推廣到Dirichlet 分佈 Dirichlet 分佈

機器學習 , lda主題分析確定主題數量 , 主題模型 , 二項分佈 , 人工智能 , 概率分佈

收藏 評論

mob64ca14092155 - 深度學習 知識蒸餾原理詳解 蒸餾原理和過程

目錄 背景 模型結構 模型效果 實現代碼 背景 模型結構 訓練過程 實現代碼 前言 本文主要介紹知識蒸餾原理,並以BERT為例,介紹兩篇BERT蒸餾論文及代碼,第一篇論文是在下游任務中使用BiLSTM對BERT蒸餾,第二篇是對Transformer蒸餾,即TinyBert。

深度學習 知識蒸餾原理詳解 , 損失函數 , 人工智能 , 深度學習 , 概率分佈 , Git

收藏 評論

架構思維大師 - 信息論基礎(熵、相對熵、交叉熵、互信息)

“對數似然比”聽起來很複雜,但當你一層層剝開它的面紗,就會發現它其實是由非常簡單、非常自然的概念構成的。 “似然比”(likelihood)是比較同一事件的兩種説法。假設你對同一個變量 X 有兩個不同的概率分佈: P(x):你的“真實”模型,或者你認為正確的分佈 Q(x):一個替代模型,或者一個假設,或者一個近似值 似然比是:$ \frac{P

真實世界 , aigc , bard , 似然比 , 概率分佈

收藏 評論

數據科學探索者 - 計算機視覺 - Attention機制(附代碼)_51CTO博客

Softmax函數 Softmax函數用於將值變成一個概率分佈(和為1)。 softmax 的核心作用可以概括為三個方面: 1. 把一組實數轉換成概率分佈 softmax 會把任意向量轉成非負且總和為 1 的結果,常用來表示概率。 這樣模型輸出可以被解釋為不同類別的概率。 2. 放大差異

pytorch , 權重 , 人工智能 , 深度學習 , jquery , 前端開發 , 概率分佈

收藏 評論

jacksky - TOP-K問題

temperature、top_p、top_k 大模型問答的交互流程 圖片來源:阿里大模型ACP考試課件 temperature temperature和top_p的調整是發生在大模型交互流程的第四階段即輸出Token,大模型會根據候選Token的概率進行隨機挑選,這就會導致“即使問題完全相同,每次的回答都略有不同”。 在大模型生成下一個詞(

歸一化 , 後端開發 , 概率分佈 , Git , Python

收藏 評論

mb61c46a7ab1eee - 詳細介紹:數據分析-基礎-二項分佈

(一)概念 二項分佈是統計學中非常重要的基礎概率分佈之一,屬於離散型概率分佈,它描述了在固定次數的獨立試驗中成功次數的概率分佈。二項分佈描述的是在 n次獨立重複的伯努利試驗 中,成功次數為 k 的概率分佈。伯努利試驗是每次試驗只有兩種可能結果(如成功/失敗、是/否、正面/反面)的隨機試驗() (二)核心特徵 試驗總次數 n 是預先確定的 --固定試驗次數 (n)

MySQL , 二項分佈 , 數據庫 , ci , 概率分佈

收藏 評論

雲端築夢師 - 深度學習pr計算公式

這個學期選了數據挖掘的課程,期末要做一個關於鏈接分析算法的報告,這是PR算法的小結。 PageRank 這個學期選了數據挖掘的課程,期末要做一個關於鏈接分析算法的報告,這是PR算法的小結。 算法 PR算法基於等級權威的思想,及不僅考慮指向該網頁的鏈接數,同時也考慮指向該網頁網站的重要程度。 PR算法是一種靜態的網頁評級方法,因為它為每個網

深度學習pr計算公式 , 馬爾科夫鏈 , 人工智能 , 深度學習 , 概率分佈 , Web

收藏 評論