Win11 Docker qwen3.5本地化养虾如何操作?
摘要:本文介绍了一种在Win11操作系统下,使用Docker部署OpenClaw的一种方案,并且Token由本地部署的Ollama加载开源的qwen3.5模型产生,实现零成本、相对安全可控的一种部署方案。当然,目前OpenClaw和Ollama的
技术背景
从语言对话,到本地小助手,人工智能大模型在这几年的时间里有了质的飞跃。本文主要介绍一下OpenClaw的Docker本地化部署方案,因其非常高的操作、读写权限,因此它的本地化的最终形态,必然是封装在一个虚拟化的环境里,通过容器或者虚拟机来对其权限进行约束,以此来加强其安全性。这里我们使用的环境是Win11+WSL2+Docker,本地显卡为3080系列。
Ollama环境部署
关于Ollama的部署问题,可以参考之前的这篇文章,在大模型部署篇已经讲过,这里不再赘述。需要提醒的是,已经安装过Ollama的童鞋,需要把Ollama升级到最新版。安装完成后,通过Ollama配置好本地模型,我个人比较推荐的是qwen3.5(带tools的版本):
这个模型在Ollama运行阶段,大概会消耗10GB左右的显存/内存。具体指令如下:
> ollama pull qwen3.5:latest
大家可以针对自己本地的硬件条件做模型的选择,如果是8GB显存的GPU卡,建议可以选择再小一些的模型。或则按照之前的方案,部署一个KTransformer用于推理,理论上也是可行的,不过这里暂时使用Ollama作为示例。
安全提醒
需要说明的是,这里我们的安装方案,是图方便把Ollama直接安装在宿主机了,理论上应该像KTransformer一样装在Docker里边,通过虚拟化进行管理,会更合适。
安装npm和pnpm环境
需要在Ubuntu的Linux子系统中建立一个空目录,然后依照如下顺序安装一个pnpm:
$ mkdir nodejs
$ cd nodejs/
$ curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -
$ sudo apt-get install -y nodejs
$ curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh | bash
安装成功后可以看到版本号:
$ node --version
v20.20.1
$ npm --version
11.8.0
然后用npm安装我们所需的pnpm:
$ npm install -g pnpm
$ pnpm --version
10.31.0
$ pnpm install
安装完成后,就可以正式开始部署OpenClaw了。
WSL2环境下的OpenClaw环境部署
在Win11上打开一个Ubuntu Linux的子系统窗口,下载openclaw的仓库源代码:
$ git clone https://github.com/openclaw/openclaw.git
$ cd openclaw/
直接运行:
$ ./docker-setup.sh
理论上来说,如果环境配置的没有问题,<网络也很通畅>的话,是可以直接运行成功的。所以如果这一步运行没有问题,本章节后面的内容就不用看了。如果有遇到一些报错信息,这里逐个排查。
docker-image报错
如果发生报错:
=> ERROR resolve image config for docker-image://docker.io/docker/dockerfile:1.7
那就把Dockerfile中的第一行内容删掉:
# syntax=docker/dockerfile:1.7
网络连接TimeOut问题
如果因为网络问题,导致下载过程报错,可以在Docker的配置文件daemon.json中添加如下配置:
"registry-mirrors": ["https://docker.1ms.run"]
frozen-lockfile报错
如果遇到frozen-lockfile的报错:
ERR_PNPM_OUTDATED_LOCKFILE Cannot install with "frozen-lockfile" because pnpm-lock.yaml is not up to date with <ROOT>/package.json
这个问题是由于npm和pnpm的环境没有配置好,需要按照上一个章节中的配置命令进行相应的模块安装。
