tag cpu

標籤
貢獻25
112
05:54 PM · Oct 25 ,2025

@cpu / 博客 RSS 訂閱

程序元元 - 模型被擠了?立即查看服務器GPU/CPU佔用,別再誤殺他人進程!

昨天晚上跑的模型今天來一看別別人kill了 心累 更讓人鬱悶的是,你後來才發現,原來有些人根本不會先看服務器是不是空着。 但抱怨歸抱怨,作為一名有素質的“共享玩家”,學會在自己跑模型前,先看看服務器上有沒有別人在跑,以及如何友好地處理資源衝突,這應該是所有人應該最先學習的! 【重要忠告⚠️】核心原則:千萬不要直接 Kill 別人的進程!這是共享服務器的基本素養,請務必牢記。 那到底該怎麼看服務器的

gpu , linux命令 , 服務器管理 , cpu

收藏 評論

藍色瞳仁 - linux性能分析篇之cpu、io

1. 工具介紹 vmstat 選用vmstat原因:大多數的發行版基本都有此命令,但是procinfo,pidstat,mpstat等命令是沒有的。 [root@cubblestone ~]# vmstat 1 3 procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu----- r b swpd fr

性能分析 , Linux , io , cpu

收藏 評論

超神經HyperAI - 從結合式異構加速到融合式 AI 加速,多位院士齊聚CCF HPC China共探科研新範式

在現代科學研究中,高性能計算(HPC)已成為推動重大突破的核心引擎,其以遠超常規計算機的算力,為科學家提供了探索未知世界的「放大鏡」和「加速器」。從模擬宇宙演化、預測氣候變化,到揭示生命分子的運作機制、加速新藥研發,HPC 正不斷拓展人類認知的邊界。 尤其在數據爆炸與人工智能快速發展的時代,AI for Science 發展提速,在很多科研領域,AI 仍存在精度不足、泛化能力弱、通用性不強等問題,

gpu , ai開發 , 人工智能 , 高性能計算 , cpu

收藏 評論

百度Geek説 - 多元 CPU 性能調優的技術挑戰、產品設計和業務實踐

本文整理自 2024 年 4 月 QCon 全球軟件開發大會(北京站) 性能優化專題的同名主題分享。 當前數據中心的服務器中部署着各類 CPU(Intel/AMD/Ampere 等),這些平台的差異,使得運行在上面的程序無法保證始終運行在最佳狀態,成為了提升業務效能的一大阻礙。 CPU 性能調優,這不僅要求工程師對各個平台有着深入的理解,同時需要掌握各類性能分析工具和方法,並依據得到的觀測數據,綜

百度 , cpu

收藏 評論

LeanCloud - 內存屏障及其在-JVM 內的應用(上)

作者:LeanCloud 後端高級工程師 郭瑞 內容分享視頻版本: 內存屏障及其在-JVM-內的應用 MESI MESI 的詞條在這裏:MESI protocol - Wikipedia,它是一種緩存一致性維護協議。MESI 表示 Cache Line 的四種狀態,modified, exclusive, shared, invalid。 modified:CPU 擁有該 Cache Line

jvm , 緩存 , 內存屏障 , leancloud , cpu

收藏 評論

思否編輯部 - AI推理硬件選型指南:CPU 與 GPU 的抉擇

AI基礎設施的建設不應追逐硬件潮流,而在於為任務選擇最合適的工具。 Akamai全球分佈式邊緣網絡能獨特地為實時應用提供可擴展、高性價比的AI推理服務。通過對CPU的戰略性使用,Akamai進一步降低了多種推理工作負載的成本與能耗,且無需犧牲性能。 如您所在的企業正在考慮構建和部署 AI 賦能應用程序,或您正在尋找合適的 AI 推理運行環境 點擊鏈接瞭解 Akamai AI 推理雲解決方案,

資訊 , gpu , 人工智能 , ai芯片 , cpu

收藏 評論

HyperAI超神經 - 【vLLM 學習】Reproduciblity

vLLM 是一款專為大語言模型推理加速而設計的框架,實現了 KV 緩存內存幾乎零浪費,解決了內存管理瓶頸問題。 更多 vLLM 中文文檔及教程可訪問 →vllm.hyper.ai/ *在線運行 vLLM 入門教程:零基礎分步指南 源碼 examples/offline_inference/reproduciblity.py # SPDX-License-Identifie

vLLM , gpu , 人工智能 , 深度學習 , cpu

收藏 評論

霍格沃茲測試學院 - 性能分析系統級別指標詳解:IO、CPU、內存和網絡

前言 在性能測試和系統監控中,瞭解和分析系統級別的關鍵性能指標是至關重要的。這些指標包括 I/O、CPU、內存和網絡,它們共同決定了系統的整體性能和穩定性。本文將詳細介紹這些關鍵性能指標的定義、測量方法及其在性能分析中的應用。 CPU 性能指標 1.1 CPU 使用率 (CPU Usage) 定義:CPU 使用率表示 CPU 在特定時間內執行用户進程、系統進程和空閒進程的百分比。主要分為用户態 (

性能測試 , 測試開發 , cpu

收藏 評論

得物技術 - 從CPU冒煙到絲滑體驗:算法SRE性能優化實戰全揭秘|得物技術

一、引言 在算法工程中,大家一般關注四大核心維度:穩定、成本、效果、性能。 其中,性能尤為關鍵——它既能提升系統穩定性,又能降低成本、優化效果。因此,工程團隊將微秒級的性能優化作為核心攻堅方向。 本文將結合具體案例,分享算法SRE在日常性能優化中的寶貴經驗,助力更多同學在實踐中優化系統性能、實現業務價值最大化。 二、給浮點轉換降温 算法工程的核心是排序,而排序離不開特徵。特徵大多是浮點數,必然伴隨

cpu

收藏 評論

超神經HyperAI - 【Triton 教程】triton_language.join

Triton 是一種用於並行編程的語言和編譯器。它旨在提供一個基於 Python 的編程環境,以高效編寫自定義 DNN 計算內核,並能夠在現代 GPU 硬件上以最大吞吐量運行。 更多 Triton 中文文檔可訪問 →https://triton.hyper.ai/ triton.language.join(a, b) 在 1 個新的次要維度中連接給定的張量。 For example, given

算法 , gpu , 編譯器 , cpu , Python

收藏 評論

熱情的涼茶_DKdkI - 解決緩存偽共享問題經驗分享

解決緩存偽共享問題的經驗分享 緩存偽共享(False Sharing) 是多線程編程中因CPU緩存行(Cache Line)共享導致的性能問題。當不同線程操作同一緩存行中的不同變量時,即使變量邏輯獨立,緩存行頻繁失效仍會導致性能下降。 核心原因 緩存行機制:CPU以緩存行(通常64字節)為單位讀寫內存,多個變量若連續存放於同一緩存行,多線程修改會觸發緩存一致性協議(如MESI),導致無效化與重

cpu

收藏 評論

京東雲開發者 - 文盤Rust -- tokio綁定cpu實踐 | 京東雲技術團隊

tokio 是 rust 生態中流行的異步運行時框架。在實際生產中我們如果希望 tokio 應用程序與特定的 cpu core 綁定該怎麼處理呢?這次我們來聊聊這個話題。 首先我們先寫一段簡單的多任務程序。 use tokio::runtime; pub fn main() { let rt = runtime::Builder::new_multi_thread() .e

rust , 異步 , cpu

收藏 評論

京東雲開發者 - log4j2同步日誌引發的性能問題 | 京東物流技術團隊

1 問題回顧 1.1 問題描述 在項目的性能測試中,相關的接口的隨着併發數增加,接口的響應時間變長,接口吞吐不再增長,應用的CPU使用率較高。 1.2 分析思路 誰導致的CPU較高,阻塞接口TPS的增長?接口的響應時間的調用鏈分佈是什麼樣的,有沒有慢的點? 1)使用火焰圖分析應用的CPU如下,其中log4j2日誌佔了40%左右CPU,初步懷疑是log4j2的問題。 2)調用鏈的分析 通過pfin

性能優化 , log4j2 , 性能 , cpu

收藏 評論

光明磊落的投影儀 - Linux使用cpulimit對CPU使用率進行限制

介紹 cpulimit是一款可以對CPU使用率進行限制的軟件,既可限制單個特定程序,也可以對整個CPU使用率進行限制,安裝使用都很方便,需要的朋友可以試試。 源安裝(推薦) Centos: yum install cpulimit Debian / Ubuntu: apt-get install -y cpulimit 編譯安裝 cd /tmp wget 'https://www.02405.co

雲服務器 , linux運維 , cpu

收藏 評論

xcmd - x-cmd install | cpufetch - 輕量強大的高顏值 CPU 信息工具,型號/架構/頻率一目瞭然!

想知道你的電腦 CPU 到底是什麼型號?性能如何?架構如何?還在用複雜的命令苦苦查詢嗎?現在,有了 cpufetch,一切都變得簡單而優雅! 告別繁瑣,一鍵獲取 CPU 核心信息 cpufetch 是一款命令行 CPU 信息獲取工具,它能以簡潔美觀的方式,在終端中展示你的 CPU 架構信息。無論你是技術大牛還是電腦小白,都能輕鬆上手,快速瞭解你的 CPU: 核心參數,一目瞭然: CPU 型號

性能監控 , 命令行 , 終端 , cpu

收藏 評論

vistart - 現代編譯器條件賦值優化:跨架構彙編分析

引言 在現代C/C++開發中,開發者經常面臨一個問題:if-else條件賦值與三元運算符在性能上是否存在差異?本文深入分析了最新版Clang和GCC編譯器在不同架構平台上的優化行為,通過彙編代碼對比揭示編譯器優化的本質。 驗證結果解讀 預期的彙編輸出 ARM64平台 (Apple Silicon) 優化前 (-O0) - 包含分支跳轉: conditional_assignment_if_else

asm , 編譯器 , 條件表達式 , 優化 , cpu

收藏 評論

超神經HyperAI - 【Triton 教程】triton_language.broadcast_to

Triton 是一種用於並行編程的語言和編譯器。它旨在提供一個基於 Python 的編程環境,以高效編寫自定義 DNN 計算內核,並能夠在現代 GPU 硬件上以最大吞吐量運行。 更多 Triton 中文文檔可訪問 →https://triton.hyper.ai/ triton.language.broadcast_to(input, *shape) 嘗試將給定的張量廣播到新的shape。 參數:

編輯器 , 算法 , 編程語言 , cpu , Python

收藏 評論

超神經HyperAI - 【Triton 教程】triton_language.expand_dims

Triton 是一種用於並行編程的語言和編譯器。它旨在提供一個基於 Python 的編程環境,以高效編寫自定義 DNN 計算內核,並能夠在現代 GPU 硬件上以最大吞吐量運行。 更多 Triton 中文文檔可訪問 →https://triton.hyper.ai/ triton.language.expand_dims(input, axis) 通過插入新的長度為 1 的維度來擴展張量的形狀。 軸

函數調用 , 索引 , 編譯器 , cpu , Python

收藏 評論

HyperAI超神經 - 【Triton 教程】triton_language.make_block_ptr

Triton 是一種用於並行編程的語言和編譯器。它旨在提供一個基於 Python 的編程環境,以高效編寫自定義 DNN 計算內核,並能夠在現代 GPU 硬件上以最大吞吐量運行。 更多 Triton 中文文檔可訪問 →triton.hyper.ai/ triton.language.make_block_ptr(base: tensor, shape, strides, offse

編程器 , Triton , gpu , 編程語言 , 人工智能 , 深度學習 , cpu

收藏 評論

超神經HyperAI - 【Triton 教程】triton_language.make_block_ptr

Triton 是一種用於並行編程的語言和編譯器。它旨在提供一個基於 Python 的編程環境,以高效編寫自定義 DNN計算內核,並能夠在現代 GPU硬件上以最大吞吐量運行。 更多 Triton 中文文檔可訪問 →triton.hyper.ai/ triton.language.make_block_ptr(base: tensor, shape, strides, offsets, block_s

算法 , gpu , 編譯器 , cpu , Python

收藏 評論

龍蜥社區 - 龍蜥白皮書精選:龍蜥全面支持 Intel 第四代可擴展處理器 SPR 平台

文/尚旭春 Intel Sapphire Rapids(簡稱SPR)即第四代至強可擴展處理器,是 Intel 承上啓下的一代產品。新引入增強指令、硬件加速器、 AMX 矩陣計算、SGX 機密計算、Scalable IOV、PCIe 5.0、CXL1.1 協議,涵蓋了計算、安全、I/O 及虛擬化方面的眾多技術升級和增強。 龍蜥社區對 Intel 平台的支持一直領先於業界,緊隨 Intel 研發節奏,

芯片 , 擴展 , intel , 操作系統 , cpu

收藏 評論

雲輕雨細 - 服務器核心組件:CPU 與 GPU 的核心區別、應用場景、協同工作

前言 在服務器硬件裏,CPU和GPU就像兩位各司其職的“核心工匠”:一個擅長處理複雜精密的“細活”,一個精通批量高效的“粗活”。很多人知道它們都是“計算引擎”,卻分不清什麼時候該用誰、二者到底差在哪。今天就帶大家搞懂服務器中CPU與GPU的核心區別,以及它們如何聯手幹活。 一、先搞懂基本概念:CPU和GPU分別是“幹什麼的”? 想分清二者的區別,得先知道它們的“本職工作”——就像認識兩個人,先了解

服務器配置 , gpu , cpu

收藏 評論

超神經HyperAI - 【TVM 教程】為 x86 CPU 自動調優卷積網絡

Apache TVM 是一個深度的深度學習編譯框架,適用於 CPU、GPU 和各種機器學習加速芯片。更多 TVM 中文文檔可訪問 →https://tvm.hyper.ai/ 作者:Yao Wang, Eddie Yan 本文介紹如何為 x86 CPU 調優卷積神經網絡。 注意,本教程不會在 Windows 或最新版本的 macOS 上運行。如需運行,請將本教程的主體放在 if name == "

gpu , 人工智能 , 編譯器 , 深度學習 , cpu

收藏 評論

超神經HyperAI - 【TVM 教程】向 TVM 中添加 Codegen

Apache TVM 是一個深度的深度學習編譯框架,適用於 CPU、GPU 和各種機器學習加速芯片。更多 TVM 中文文檔可訪問 →https://tvm.hyper.ai/ 隨着深度學習工作負載所針對的硬件設備數量不斷增加,用户在各種設備上實現高性能所需的知識也在不斷增加。為了讓數據科學家在開發新模型時不必擔心性能問題,硬件廠商或是基於一些常見的深度學習算子,提供 MKLDNN 或 cuDNN

算法 , gpu , 代碼編輯器 , cpu , Python

收藏 評論