tag ollama

標籤
貢獻2
39
04:40 PM · Nov 15 ,2025

@ollama / 博客 RSS 訂閱

u_15650730 - Ollama本地電腦運行無限制AI模型超簡單案例

想在本地用一款 “無拘無束” 的 AI 模型?Ollama 能幫你輕鬆實現,但先得説清楚:這類 “越獄模型” 雖自由,卻可能藏着不少小麻煩。 一、手把手裝 Abliterated 無限制模型 1. 先搭好 Ollama 基礎 不管用什麼系統,先把 Ollama 裝上 —— 它是本地跑模型的 “底座”,操作很簡單: Windows/macOS:去Ollam

機器學習 , ollama , 人工智能

收藏 評論

火雲大軍 - 程序員應該熟悉的概念(7)vLLM和ollama

vLLM(Virtual Large Language Model) 和 Ollama 都是用於運行大語言模型 大語言模型/LLM 的工具,旨在降低本地部署和使用大模型的門檻。應用程序可以通過它們的統一接口,使用不同大模型。 簡介 vLLM:是一個高性能的大模型推理引擎,專注於優化模型運行效率。通過 PagedAttention 等技術大幅提升吞吐量(每秒處理請求數)、降

llm , vLLM , ollama , 人工智能 , 深度學習

收藏 評論