博客 RSS 訂閱

mob64ca12f2c96c - 如何搭建企業自己的AIGC模型

在當今AI技術迅速發展的背景下,企業越來越渴望搭建自己的AIGC(AI生成內容)模型,以便為其業務提供個性化的服務與解決方案。那麼,實際操作過程中,如何高效、有效地搭建企業自己的AIGC模型呢?以下是關於這個過程的詳細記錄和分析。 問題背景 在一家在線教育企業中,為了提高用户體驗,該公司希望開發一個能夠自動為用户生成個性化學習內容的AIGC模型。這個模型旨在基於用户的學習歷史和偏

響應時間 , 用户反饋 , aigc , 解決方案

收藏 評論

代碼探險家 - rest_framework_simplejwt 自定義了用户表

1.請求和響應 2.基於類的視圖 3.認證和權限 1.請求和響應 從現在開始,我們將真正開始接觸REST framework的核心。下面我們介紹幾個基本的模塊。 請求對象(request objects) REST framework引入了一個擴展常規HTTPRequest和Request對象,並

rest , 雲計算 , RESTframework , DjangoRESTFrameWork , django , 雲原生 , Python

收藏 評論

小題大作 - ruoyi前後端分離框架docker file部署

隨着互聯網的發展,之前的單體架構已經不滿足於解決當前的挑戰,所以一些企業開始對項目結構進行優化,分佈式,微服務等等,這些項目結構的升級確實解決了一部分的問題,但是同樣也帶來了新的挑戰,比如今天博客的主題——安全。安全,是一個隨着架構演化,越來越重要的東西。之前的單體應用,大多會採用shiro這個安全框架,而擯棄spring security,因為shiro的功能已經基本上滿足企業

spring , 雲計算 , JAVA , Docker , 安全

收藏 評論

mob649e81624618 - ollama量化

在探索“ollama量化”問題的過程中,我深入分析了多個維度,構建出一套完整的解決方案。這篇博文將全面展示這個過程,力求為讀者帶來系統化的理解。 在當今雲計算和大數據的背景下,量化技術被廣泛應用於資源分配、性能優化等場景。Ollama量化作為一種前沿技術,主要用於數據處理與推理任務的優化。它在大規模應用中表現出了極大的潛力和價值,特別是在實時數據分析、機器學習預處理等方面。 我通

資源分配 , lua , 市場份額 , aigc

收藏 評論

逐夢AI - [開源免費]基於 STM32 的物流分揀小車設計與實現

基於 STM32 的物流分揀小車設計與實現 在智慧物流持續發展的今天,分揀環節的自動化與智能化程度成為提高倉儲效率的關鍵指標之一。傳統人工分揀不僅成本高,而且效率有限,因此研發一款 基於 STM32 的智能物流分揀小車 具有非常重要的工程價值。本文將從系統架構、核心功能設計到軟硬件實現流程,對該項目進行完整的技術解析。 源碼分享 直接放到之前寫的文章裏了,免費開源,下載學習即可。 https:

後端

收藏 評論

逐夢AI - [開源免費]基於STM32的心率監控儀 —— 從原理到實現的完整技術解析

基於STM32的心率監控儀 —— 從原理到實現的完整技術解析 前言 心率監測技術在智能穿戴、健康管理設備中已經非常普及,但如果你想親手做一個心率監控儀,理解其硬件原理、信號採集方法以及心率算法,其實並不複雜。在大四畢業設計期間,我曾基於 STM32F103C8T6 + PulseSensor + OLED 實現過一台完整可用的心率監控儀,並將全過程整理成技術文檔。 本文將結合當時的實踐,系統講解這

後端

收藏 評論

JackieDYH - windows系統中快速刪除node_modules文件

npx命令方式 npx rimraf node_modules 項目中設置 "scripts": { # 安裝依賴 "i": "pnpm install", # 檢測可更新依賴 "npm:check": "npx npm-check-updates", # 刪除 node_modules "clean"

批處理文件 , 緩存 , Css , 前端開發 , HTML

收藏 評論

mob64ca12f58d71 - 在idea 中配置GitHub Copilot

在IntelliJ IDEA中配置GitHub Copilot是一項能夠提高開發效率的技術。以下是我整理的如何在IDEA中配置GitHub Copilot的步驟和相關信息。 環境準備 在開始之前,請確認您的開發環境符合下面的要求: 軟硬件要求 操作系統: Windows, macOS, Linux IDEA版本: 2020.3及以上

Test , 搜索 , aigc , 重啓

收藏 評論

titiedemakebei - 搭建Linux源碼閲讀環境

購買服務器/使用虛擬機(ubuntu 24) 這裏可以去找服務器教程/虛擬機教程 拉取Linux代碼並編譯 到/home文件下創建文件夾/Linux cd /home mkdir Linux 到達/Linux文件夾下拉取Linux源碼,這裏選擇的是linux-6.17.10,如果有需要可以去下載網站選擇自己需要的版本 cd Linux #如果拉不下來可以用本機下載後傳到服務器/虛擬機中

源碼學習 , Linux

收藏 評論

mob64ca12e1c36d - 基於LangChain和Ollama的針對本地知識庫的自動問答

在現代企業中,知識管理變得越來越重要,尤其是如何快速有效地獲取和利用本地知識庫。基於LangChain和Ollama的自動問答系統為我們提供了一種快速響應用户需求的解決策略。通過集成本地知識庫,這些工具不僅幫助企業提高了信息的獲取效率,還增強了用户滿意度。 用户原始需求:我希望能夠從本地知識庫中快速獲取信息,自動回覆問詢,減少人工干預。 通過分析,我們可以將技術需求

正常運行 , 問答系統 , aigc , ci

收藏 評論

mob64ca12e7b5cf - 綠聯NAS安裝ollama

綠聯NAS安裝ollama的全流程指南 在這篇文章中,我將帶你分步驟解決“綠聯NAS安裝ollama”的相關問題。這將涉及到環境準備、核心操作、配置詳解、驗證測試、優化技巧及排錯指南等方面。準備好了嗎?讓我們開始吧! 環境準備 在開始之前,我們需要確認軟硬件要求。確保你的綠聯NAS設備和其他相關組件能夠支持ollama的安裝。 軟硬件要求

User , API , aigc , ci

收藏 評論

愛跑步的香蕉_cKtiNz - AI招聘:HR領域的智能化變革與行業趨勢

AI招聘:HR領域的智能化變革與行業趨勢 若企業仍沿用傳統招聘模式,依賴人工篩選簡歷、組織面試、主觀打分,且需通過多輪複試與多位面試官協同完成招聘流程,那麼在人力資源管理數字化轉型的浪潮中,可能已處於落後狀態。 當前,人力資源管理的數字化轉型呈現明顯的“兩極分化”特徵:大型企業憑藉充足的預算支持與紮實的數據基礎優勢,已率先邁入數字化與智能化管理階段;而大量中小企業受限於成本壓力、數據基

人工智能

收藏 評論

aqi00 - FFmpeg開發筆記(九十一)基於Kotlin的Android直播開源框架RootEncoder

​《FFmpeg開發實戰:從零基礎到短視頻上線》一書的“10.2.2 FFmpeg向網絡推流”介紹了輕量級流媒體服務器MediaMTX,通過該工具可以測試RTSP/RTMP等流媒體協議的推拉流。除了國產的推流工具librestreaming能夠向MediaMTX推送視頻流之外,還有開源的RootEncoder也支持Android手機從攝像頭實時採集視頻信號,並向後端的MediaMTX持續推送視頻數

Kotlin , 音視頻 , Android , 直播 , ffmpeg

收藏 評論

mob64ca12f58d71 - linux自己微調的本地大模型如何部署到ollama上

在本文中,我將詳細記錄“Linux自己微調的本地大模型如何部署到Ollama上”這一過程。很多開發者在本地微調模型後,常常面臨將其部署到有效運行環境中的難題。以下是我整理的解決方案及過程。 問題背景 隨着大模型技術的發展,越來越多的開發者開始在Linux環境中自己微調大型模型。假設我們使用的數據集大小為$D$,模型參數規模為$P$,我們希望通過不斷的訓練來提高模型的準確性。在這種

bash , aigc , 開發者 , ci

收藏 評論

mob64ca12d9e536 - linux安裝ollama再gpu運行

在這篇博文中,我們將詳細記錄 Linux 上安裝 Ollama 並在 GPU 上運行的過程。以下內容將包括環境準備、分步指南、配置詳解、驗證測試、優化技巧及排錯指南,旨在提供一個全面的解決方案。 環境準備 在開始之前,我們需要確保我們的環境已經準備好。這包括安裝必要的依賴項和工具。以下是我們將要安裝的前置依賴項列表: Docker NVIDIA 驅動 NV

bash , aigc , Docker

收藏 評論

mob64ca12e676c8 - win Ollama Docker GPU

在本文中,我將解決“win Ollama Docker GPU”問題,分享我在該過程中的經驗和技術細節。近年來,隨着深度學習和人工智能應用的普及,Docker作為一種輕量級的虛擬化工具,廣泛應用於各種開發和部署場景。Ollama則是一個用於管理機器學習模型的平台,結合這兩者,可以高效地將模型運行在GPU服務器上,但其中也會遇到一些挑戰。 背景定位 在最近的項目中,我遇到了一些關於

性能調優 , 配置文件 , aigc , Docker

收藏 評論

mob64ca12d59fe5 - go語言開源的AIGC 前後端

在這篇博文中,我將詳細記錄關於“Go語言開源的AIGC前後端”在實際開發和使用中遇到的問題及其解決方案。這將涵蓋從基本背景到性能調優的各個方面。 背景定位 在2023年,我們團隊着手開發一個基於Go語言的AIGC(人工智能生成內容)項目。隨着智能應用的普及,需求逐漸增加,用户反饋也開始顯現問題。通過我們的系統,我們發現了一些嚴重的性能瓶頸和交互問題。 問題場景 項

默認值 , 響應時間 , aigc , go

收藏 評論

失落的木瓜_esfWwz - 【剪映API】向現有草稿中批量添加字幕

ADD_CAPTIONS API 接口文檔 接口信息 POST /openapi/capcut-mate/v1/add_captions 功能描述 向現有草稿中批量添加字幕。該接口用於在指定的時間段內添加字幕到剪映草稿中,支持豐富的字幕樣式設置,包括文本顏色、邊框顏色、對齊方式、透明度、字體、字體大小、字間距、行間距、縮放和位置調整等。 更多文檔 📖 更多詳細文檔和教程請訪問:https://d

aigc , Python

收藏 評論

趙渝強老師 - 【趙渝強老師】國產金倉數據庫的體系架構

金倉數據庫作為國產數據庫中非常重要的一員,其地位也非常的重要。尤其隨着開源運動的興起,KingbaseES在數據庫領域顯示出舉足輕重的地位。這也很好地促進了金倉數據庫的發展。 人大金倉數據庫管理系統KingbaseES(簡稱:金倉數據庫或KingbaseES)是北京人大金倉信息技術股份有限公司研製開發的具有自主知識產權的通用關係型數據庫管理系統。 金倉數據庫基於PostgreSQL開發構建,因此這

數據庫 , postgresql

收藏 評論

星星上的柳樹 - 智慧城市新腦:NVIDIA構建“AI工廠”模式

“城市不再只是鋼筋水泥的聚集體,而將成為真正“會思考”的系統。” 在巴塞羅那召開的 SCEWC 上,NVIDIA 面向城市領袖提出了一個大膽設想:將城市管理升級為 “AI 工廠”模式,將攝像頭、傳感器、數字模型匯成一個集中智能系統,實現從交通、氣候、安全到公共服務的主動治理。 NVIDIA 指出,這不僅僅是賣硬件,更是讓人工智能“觸手可及、經濟可行、規模可擴”的城市級應用。 ✦

資訊 , 教程 , 知識 , 人工智能 , 深度學習

收藏 評論

mob649e81607bf3 - ollama docker部署codegeex4

對於“ollama docker部署codegeex4”的過程,接下來的內容將詳細闡述整個實施流程,從環境準備到排錯指南,確保讀者能夠順利完成該部署。 在進行“ollama docker部署codegeex4”之前,需要確保各項環境準備工作就緒。以下是詳細的步驟和配置。 環境準備 本地部署“ollama docker部署codegeex4”前的前置依賴如下: Do

bash , aigc , Docker

收藏 評論

無邪的課本 - nginx-sticky怎麼用 Nginx 負載均衡添加 sticky 模塊完整步驟

​第一步:先搞懂這是啥​ nginx-sticky是個能讓用户每次訪問都落到同一台後端服務器的插件(比如你有好幾台Tomcat/Node服務器,用它就能讓用户一直連其中一台)。解壓後一般是.c文件(比如ngx_http_sticky_module.c)和説明文檔。 第二步:準備環境(必須裝這些!) ​ 裝Nginx源碼:去 Nginx官網下和你現在用的Nginx版本一致的源碼(別版本對不上,不

Nginx

收藏 評論

mob64ca12db3721 - stable Diffusion模型打包下載

在當今的AI領域,Stable Diffusion模型的打包下載引起了廣泛關注。本文將詳細探討如何解決“Stable Diffusion模型打包下載”的問題,包括協議背景、抓包方法、報文結構、交互過程、多協議對比,以及擴展閲讀部分,為相關技術人員提供參考。 協議背景 Stable Diffusion模型以其強大的圖像生成能力受到追捧,尤其是在2022年後,相關的開發和應用不斷增加

抓包 , HTTP , aigc , 數據傳輸

收藏 評論

鯨魚編程pyhui - 20251206_003935 遞歸

什麼是遞歸 有遞進,達到更深層次 有歸來,可以從深到淺的返回 遞歸需求 求4的階乘 使用兩種方式完成計算 1,非遞歸方式 2,遞歸方式 遞歸要點 自己調用自己 有底限 如果達到底限需要中止遞歸(例如返回一個值) 本文包含:--> -->

遞歸 , 非遞歸 , 後端開發 , Python

收藏 評論