如何从零开始部署Ollama大模型?

摘要:在 AI 大模型爆发的今天,我们不再需要依赖昂贵的云服务,也能在自己的电脑上部署并运行强大的大语言模型。Ollama 就是这样一款工具,它让本地部署和使用大模型变得前所未有的简单。
在 AI 大模型爆发的今天,我们不再需要依赖昂贵的云服务,也能在自己的电脑上部署并运行强大的大语言模型。Ollama 就是这样一款工具,它让本地部署和使用大模型变得前所未有的简单。 核心功能特性   - 开源免费:Ollama 核心框架为开源免费,个人与企业日常本地部署、二次开发及商业集成均无费用,且官方支持商用。   - 跨平台:对Windows、macOS、Linux 等主流桌面与服务器系统均原生支持。   - 配置简单且功能强大:Ollama 会自动检测你的硬件(GPU、CPU),优先放到显存,显存不够的部分,自动放到内存,推理时,GPU 层和 CPU 层接力计算,用户完全无感知,无需复杂配置,就能最大化利用本地算力。   - 流式输出:Ollama 支持逐字实时返回模型生成内容,无需等待完整响应生成完成,实现类似 ChatGPT 的“边想边说”效果。   - 深度思考:支持模型多步推理、逻辑拆解、复杂问题分步思考,模拟人类“先想后答”的思维过程,提升复杂任务的回答准确性。   - 结构化输出:强制模型生成符合指定格式的结构化数据,如 JSON、XML、CSV 等,确保输出可直接被程序解析,无需额外清洗。   - 多模态视觉理解:支持图像输入与理解,模型可识别图片内容、OCR 文字、图表、截图等,实现图文混合交互。   - 向量化:将文本等内容转换为向量,用于语义相似度计算、检索增强生成(RAG)等场景。   - 工具调用:模型可自动识别并调用外部工具 / 函数,如计算器、API 接口、本地脚本、数据库查询等,扩展模型能力边界。   - 联网搜索:模型可实时联网获取最新信息,补充模型静态知识,回答时效性强、动态变化的问题。 安装部署   Ollama 支持 Windows、macOS 和 Linux 三大主流系统,安装过程非常直观。(仅介绍常用的Windows 安装,其他方式请参考官网文档) Windows 上安装 Ollama Step 01 官网下载安装程序 - https://ollama.com/download/windows Step 02 运行程序并修改配置   Ollama 运行本地模型时,免费且没有限制,无需登录。但是Ollama 云端模型和联网搜索功能,必须登录 Ollama 账号才能使用。   Ollama 的定价参考:https://ollama.com/pricing Step 03 下载模型并验证 模型选择   Ollama 官方库中拥有大量模型,选择合适的模型是关键。 模型命名   首先,要了解大模型的命名规则为: <品牌+版本>:<参数><方向><量化><特殊标签>   命名不是强制要求,部分会忽略,只显示用户最关心的参数,所以不同模型会让人感觉命名规则不标准。 比如:   - qwen3.5:9b:通义千问 3.5 系列:90 亿(9 Billion)参数规模   - qwen3.5:397b-cloud:通义千问 3.5 系列: 3970 亿(397 Billion)参数规模 - 云端运行模型   -qwen3-coder:30b:通义千问 3 编码系列 : 300 亿(30 Billion)参数规模   -qwen3-vl:8b:通义千问 3 视觉 - 语言多模态系列:80 亿参数(8 Billion)参数规模 按硬件配置选择 硬件配置 推荐模型 特点 4GB 显存 / 8GB 内存 qwen3.5:2b 轻量、快速,适合简单问答 8GB 显存 / 16GB 内存 qwen3.5:9b 适合个人电脑本地部署使用 16GB+ 显存 / 32GB+ 内存 qwen3.5:35b 能力强大,适合深度推理、长文档处理、专业场景处理等 按使用场景选择   - 通用对话及写作:qwen3.5:9b 等   - 代码开发:qwen3-coder:30b,deepseek-coder-v2:16b 等   - 图文理解:qwen3-vl:8b 等 使用方式选择   - 本地模型:免费,没有限制,运行占用本地现显存/内存   - 云端模型:需要登录 Ollama 账号,有额度和限制,占用 Ollama 官方服务器资源,不占用本地资源 常用命令 命令 作用 示例 ollama --version 查看 Ollama 程序的当前版本号,验证安装是否成功 ollama --version ollama list 列出本地已下载的所有模型 ollama list ollama pull <模型> 拉取(下载)指定的模型到本地 ollama pull qwen3:8b ollama push <模型> 将本地的自定义模型推送到远程仓库(需登录账号) ollama push my-custom-model:latest ollama run <模型> 运行指定模型并进入交互式对话模式;若模型未拉取,会自动先拉取再运行 ollama run qwen3:8bollama run qwen3:8b --verbose ollama show <模型> 查看模型的详细信息 ollama show qwen3:8b ollama show qwen3:8b --modelfile ollama rm <模型> 从本地删除模型 ollama rmqwen3:8b ollama ps 查看当前正在运行的模型进程及状态 ollama ps ollama create <新模型> 根据一个 Modelfile 文件,基于现有模型创建全新的自定义模型 ollama create code-assistant -f Modelfile ollama cp <源模型> <目标模型> 复制模型,常用于给模型创建别名、备份 ollama cp qwen3:8b qwen3:8b-chat ollama launch <工具名> 启动 Ollama 服务 + 自动配置并打开对应工具 ollama launch openclaw ollama launch claude 自定义模型   Ollama 允许通过创建 Modelfile,打造一个拥有独特个性和能力的专属模型。   Modelfile文件写法参考:https://github.com/ollama/ollama/blob/main/docs/modelfile.mdx 创建 Modelfile   新建一个名为devQwen 的Modelfile 的文本文件,写入以下内容: 创建新模型 运行新模型 通过 Ollama 启动 OpenClaw   安装前,请先安装 Node.js 与 Git,然后运行: ollama launch openclaw   或 ollama launch openclaw --model kimi-k2.5:cloud   Ollama 将自动完成以下操作:   -安装—— 若未安装 OpenClaw,Ollama 会提示通过 npm 进行安装   -安全—— 首次启动时,安全须知会说明工具访问存在的相关风险   -模型—— 从选择器中挑选本地或云端模型   -初始化引导—— Ollama 配置服务提供商、安装网关守护进程、将所选模型设为默认主模型,并安装网页搜索与内容抓取插件(网页搜索与内容抓取会自动启用)   -网关—— 在后台启动程序并打开 OpenClaw 终端交互界面   运行后,可访问 OpenClaw: 推荐模型   - kimi-k2.5:cloud   -minimax-m2.7:cloud   -glm-5:cloud   -glm-4.7-flash 推荐上下文长度   建议至少采用 64k 的上下文长度。 停止运行OpenClaw openclaw gateway stop 通过 Ollama 启动 Claude Code   开源模型可通过 Ollama 兼容 Anthropic 的接口接入 Claude Code,支持 qwen3.5、glm-5:cloud、kimi-k2.5:cloud 等模型。 Windows 安装 Claude Code irm https://claude.ai/install.ps1 | iex 启动 Claude Code ollama launch claude   或 ollama launch claude --model kimi-k2.5:cloud 推荐模型   - kimi-k2.5:cloud   -glm-5:cloud   -minimax-m2.7:cloud   -qwen3.5:cloud   -glm-4.7-flash   -qwen3.5 推荐上下文长度   建议至少采用 64k 的上下文长度。 接口   可通过接口调用将 Ollama 集成至你的应用中,其安默认访问地址为:   - 本地地址:http://localhost:11434/api   - 云端地址:https://ollama.com/api   在本地访问无需身份验证,云端访问则需要进行身份验证。Ollama 支持本地登录和 API Key两种身份验证方式。 流式传输   部分 API 接口默认以流式形式返回响应结果,采用换行分隔的 JSON 格式(application/x-ndjson 内容类型)进行传输,其形如: {"model":"gemma3","created_at":"2025-10-26T17:15:24.097767Z","response":"That","done":false} {"model":"gemma3","created_at":"2025-10-26T17:15:24.109172Z","response":"'","done":false} {"model":"gemma3","created_at":"2025-10-26T17:15:24.121485Z","response":"s","done":false} {"model":"gemma3","created_at":"2025-10-26T17:15:24.132802Z","response":" a","done":false} {"model":"gemma3","created_at":"2025-10-26T17:15:24.143931Z","response":" fantastic","done":false} {"model":"gemma3","created_at":"2025-10-26T17:15:24.155176Z","response":" question","done":false} {"model":"gemma3","created_at":"2025-10-26T17:15:24.166576Z","response":"!","done":true, "done_reason": "stop"}   可通过在请求体中传入{"stream": false}来关闭流式传输,响应将以application/json 内容类型返回。 返回值   返回值形如: { "model": "gemma3", "created_at": "2025-10-17T23:14:07.414671Z", "response": "Hello! How can I help you today?", "done": true, "done_reason": "stop", "total_duration": 174560334, "load_duration": 101397084, "prompt_eval_count": 11, "prompt_eval_duration": 13074791, "eval_count": 18, "eval_duration": 52479709 }   常见字段包括:   - model: 模型名   - created_at: 响应创建时间戳   - response: 模型生成的文本回复   - thinking:模型生成的思考输出   - done: 生成流程是否完成   - done_reason: 生成停止原因   性能和模型使用情况的各项指标包括(对于返回流式响应的接口,下面字段会包含在结束标记为 true 的最后一个数据块中):   -total_duration:生成响应的总时长(纳秒)   -load_duration:模型加载所耗费的时长(纳秒)   -prompt_eval_count:处理的输入 token 数量   -prompt_eval_duration:评估提示词所耗费的时长(纳秒)   -eval_count:处理的输出 token 数量   -eval_duration:生成输出 token 所耗费的时长(纳秒) 接口清单 接口 描述 对应 Ollama 命令 /api/generate 生成文本响应 ollama run <模型>(单次调用) /api/chat 生成聊天消息 ollama run <模型>(多轮对话) /api/embed 生成可表征输入文本的向量 ollama run<模型> <文本> /api/tags 获取模型列表及其详细信息 ollama list /api/ps 获取当前正在运行的模型列表 ollama ps /api/show 查看模型详细信息 ollama show <模型> /api/create 创建自定义模型 ollama create <新模型> /api/copy 复制一个模型(创建别名/副本) ollama cp <源模型> <目标模型> /api/pull 拉取模型 ollama pull <模型> /api/push 推送模型 ollama push <模型> /api/delete 删除模型 ollama rm <模型> /api/version 获取 Ollama 的版本 ollama --version   注:Ollama 兼容部分 OpenAI 和 Anthropic 的 API,具体内容请参考官网文档。 安全问题 接口的安全风险   Ollama 只用于本地调用,不建议直接暴露到公网。Ollama 开放的 11434 端口是其 API 服务入口,历史上曾因大量用户将端口直接暴露到公网,引发过多起严重安全事件。   API 无需身份校验和鉴权即可访问,谁能连上 11434 端口,谁就能控制你的 Ollama。 软件自身的安全漏洞   Ollama 早期版本中存在多个高危漏洞,如果未及时升级,这些历史漏洞则仍然存在,易被攻击者利用。 Modelfile 的安全风险   - FROM可指向外部恶意模型:可能会指向恶意模型,执行恶意代码。   - SYSTEM 提示注入:SYSTEM指令定义模型的核心行为规则,若 Modelfile 被篡改(或包含恶意提示词),模型会执行篡改后的恶意指令(如诱导泄露数据、执行高危操作)。   - PARAMETER 被篡改:被篡改后会导致模型输出不可控(如生成违规内容、无意义文本),破坏业务逻辑。 解决方案   - 核心原则:Ollama 优先仅限本地使用(绑定 127.0.0.1),非必要不暴露至公网;若需公网访问,需做好代理 + 认证也来有效规避风险。   - 端口防护:11434 端口禁止做公网端口映射、不开放防火墙,建议改非知名自定义端口。   - 版本安全:始终使用 Ollama 最新稳定版,及时修复已知漏洞。   - 模型管控:仅加载官方 / 可信来源的模型,拒绝来源不明的模型。 小结   Ollama 为我们打开了本地大模型的大门,让 AI 触手可及。希望这篇指南能帮助你快速上手,开启你的本地 AI 之旅。   我希望您喜欢这篇文章,并一如既往地感谢您阅读并与朋友和同事分享我的文章。