Win11 Docker qwen3.5本地化养虾如何操作?

摘要:本文介绍了一种在Win11操作系统下,使用Docker部署OpenClaw的一种方案,并且Token由本地部署的Ollama加载开源的qwen3.5模型产生,实现零成本、相对安全可控的一种部署方案。当然,目前OpenClaw和Ollama的
技术背景 从语言对话,到本地小助手,人工智能大模型在这几年的时间里有了质的飞跃。本文主要介绍一下OpenClaw的Docker本地化部署方案,因其非常高的操作、读写权限,因此它的本地化的最终形态,必然是封装在一个虚拟化的环境里,通过容器或者虚拟机来对其权限进行约束,以此来加强其安全性。这里我们使用的环境是Win11+WSL2+Docker,本地显卡为3080系列。 Ollama环境部署 关于Ollama的部署问题,可以参考之前的这篇文章,在大模型部署篇已经讲过,这里不再赘述。需要提醒的是,已经安装过Ollama的童鞋,需要把Ollama升级到最新版。安装完成后,通过Ollama配置好本地模型,我个人比较推荐的是qwen3.5(带tools的版本): 这个模型在Ollama运行阶段,大概会消耗10GB左右的显存/内存。具体指令如下: > ollama pull qwen3.5:latest 大家可以针对自己本地的硬件条件做模型的选择,如果是8GB显存的GPU卡,建议可以选择再小一些的模型。或则按照之前的方案,部署一个KTransformer用于推理,理论上也是可行的,不过这里暂时使用Ollama作为示例。 安全提醒 需要说明的是,这里我们的安装方案,是图方便把Ollama直接安装在宿主机了,理论上应该像KTransformer一样装在Docker里边,通过虚拟化进行管理,会更合适。 安装npm和pnpm环境 需要在Ubuntu的Linux子系统中建立一个空目录,然后依照如下顺序安装一个pnpm: $ mkdir nodejs $ cd nodejs/ $ curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash - $ sudo apt-get install -y nodejs $ curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh | bash 安装成功后可以看到版本号: $ node --version v20.20.1 $ npm --version 11.8.0 然后用npm安装我们所需的pnpm: $ npm install -g pnpm $ pnpm --version 10.31.0 $ pnpm install 安装完成后,就可以正式开始部署OpenClaw了。 WSL2环境下的OpenClaw环境部署 在Win11上打开一个Ubuntu Linux的子系统窗口,下载openclaw的仓库源代码: $ git clone https://github.com/openclaw/openclaw.git $ cd openclaw/ 直接运行: $ ./docker-setup.sh 理论上来说,如果环境配置的没有问题,<网络也很通畅>的话,是可以直接运行成功的。所以如果这一步运行没有问题,本章节后面的内容就不用看了。如果有遇到一些报错信息,这里逐个排查。 docker-image报错 如果发生报错: => ERROR resolve image config for docker-image://docker.io/docker/dockerfile:1.7 那就把Dockerfile中的第一行内容删掉: # syntax=docker/dockerfile:1.7 网络连接TimeOut问题 如果因为网络问题,导致下载过程报错,可以在Docker的配置文件daemon.json中添加如下配置: "registry-mirrors": ["https://docker.1ms.run"] frozen-lockfile报错 如果遇到frozen-lockfile的报错: ERR_PNPM_OUTDATED_LOCKFILE  Cannot install with "frozen-lockfile" because pnpm-lock.yaml is not up to date with <ROOT>/package.json 这个问题是由于npm和pnpm的环境没有配置好,需要按照上一个章节中的配置命令进行相应的模块安装。
阅读全文