文档概述

本文档详细记录电脑小白了在Windows 11系统上,如何部署qwen2.5:7b(通义千问)大模型。全程靠ai指引完成。

最终成果

  1. 在个人电脑上搭建一个完全本地化、免费、保护隐私的AI对话环境,可流畅运行如 qwen2.5:7b(通义千问)、gemma2:2b(谷歌Gemma)等主流开源大模型。
  2. 可以自由选择、切换甚至微调不同的开源模型,打造最适合自己需求的助手。

最终状态:打开浏览器,访问 http://localhost:3000,与你专属的、安全的、强大的本地AI进行对话。

整体步骤概览:(做中学,遇到不明白的名词另开对话框问ai)

  1. 查看电脑配置
  2. 安装 Docker Desktop
  3. 安装 Ollama(本地模型引擎)
  4. 拉模型+启动 Open WebUI
  5. 在 WebUI 里绑定 Ollama

一、查看电脑配置

电脑配置如下

  • 处理器:AMD Ryzen 5 4600H with Radeon Graphics
  • 内存:16.0 GB
  • 系统:64位 Windows 10/11,基于 x64 的处理器
  • 关键点:无NVIDIA独立显卡,因此所有AI计算将依赖CPU和内存。

这里演示的是gpt推荐的:Open WebUI + Ollama(本地) + 偶尔用云模型 + 本地部署的模型为qwen2.5:7b

chatgpt/deepseek判断电脑配置是否能部署及部署哪一档次

提示词:电脑配置: 处理器 AMD Ryzen 5 4600H with Radeon Graphics 3.00 GHz 机带 RAM 16.0 GB (15.4 GB 可用) 系统类型 64 位操作系统, 基于 x64 的处理器。是否适合在本地部署大模型,适合的话推荐哪种组合,并且一步步引导我操作

二、 安装 Docker Desktop

1. 下载 。 下载 Windows 版(x64)。

安装教程:https://www.runoob.com/docker/windows-docker-install.html

安装地址:https://docs.docker.com/desktop/setup/install/windows-install/

2. 安装时注意这两点

安装过程中如果看到选项:

  • Use WSL 2 → 一定要勾选
  • 如果提示安装 WSL → 同意

装完后 重启电脑(这一步别省)

3. 验证是否成功

打开 PowerShellCMD

docker --version

如:Win+r输入cmd

能显示版本号即可。

三、安装 Ollama(本地模型引擎)

1. 下载。 官网直接搜: Ollama Windows

网址:https://ollama.com/download/windows

2. 验证

ollama --version

能显示版本号即可。

四、拉模型

1.检查WSL是否安装成功(如果安装docker时未安装成功wsl直接下载模型会失败)

Ollama依赖WSL2运行,请按顺序检查:

Step1:以管理员身份打开终端(PowerShell),运行以下命令测试:
# 以管理员身份打开PowerShell,检查WSL状态
wsl --status

# 如果未安装,执行安装命令
wsl --install

# 设置WSL2为默认版本
wsl --set-default-version 2

如果显示 “默认版本:2”,即表示成功。

wsl --status 命令没有任何返回结果,说明WSL核心组件(包括Linux内核)完全没有安装成功,可按照以下步骤操作

步骤一:启用Windows功能(必需的基础)

在PowerShell中执行:

  1. powershell
dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart
  1. 必须重启计算机
步骤二:手动下载并安装WSL2 Linux内核更新包(关键一步)

这是卡住大多数人的环节,请离线安装:

  1. 下载:直接点击链接下载:https://wslstorestorage.blob.core.windows.net/wslblob/wsl_update_x64.msi
  2. 安装:双击运行下载的 wsl_update_x64.msi 文件,全部点击“下一步”完成安装。
  3. 验证:重启后打开PowerShell,运行 wsl --status现在应该能看到详细的版本信息,并显示“默认版本:2”。如果依然没输出,重复本步骤。
步骤三:手动下载并安装Ubuntu发行版(离线安装)

同样放弃在线安装,改为离线:

  1. 下载:访问 https://aka.ms/wslubuntu2204 下载 Ubuntu.appx 包。
  2. 安装
    • 将文件后缀 .appx 改为 .zip
    • 解压到任意文件夹(如 C:\WSL\Ubuntu)。
    • 进入文件夹,运行 ubuntu.exeubuntu2204.exe
  1. 设置:首次运行会打开终端,等待初始化完成,然后设置Linux用户名和密码(务必记住)。
步骤四:最终验证与设置
  1. 在PowerShell中,现在 wsl --statuswsl -l -v 都应该有正确输出。
  2. 输入 wsl 命令,应能直接进入刚才安装的Ubuntu系统。
Step2:安装WSL后还需要安装一个Linux发行版:
# 查看可用发行版
wsl --list --online

# 安装Ubuntu(推荐)
wsl --install -d Ubuntu

# 或从Microsoft Store安装Ubuntu

安装适用于 Linux 的 Windows 子系统

如果网络不好,觉得下载得很慢,可以通过该链接下载:https://wslstorestorage.blob.core.windows.net/wslblob/wsl_update_x64.msi

2.打开终端(PowerShell),运行以下命令测试与Ollama服务器的连接:

curl http://localhost:11434/api/tags
  • 正常:会返回已下载模型的列表(可能是空的JSON {})。
  • 失败:提示连接被拒绝,说明Ollama服务未启动。

3.在PowerShell(管理员)终端中输入命令

Step1:进入WSL并安装Ollama.每一步都要以“管理员”身份打开进行
wsl

注:看到类似 yourusername@DESKTOP-XXXXX:~$ 的提示符,这说明你已经进入了Linux子系统。

Step2:在WSL命令行中,执行官方的Ollama安装命令(也可以直接在ubuntu终端执行命令)
curl -fsSL https://ollama.com/install.sh | sh

安装过程会需要你输入密码(就是你安装WSL时设置的Linux密码),输入时屏幕不会显示字符,输完直接按回车即可。安装完成后,运行 ollama --version,如果显示版本号即成功。

Step3:启动Ollama服务

安装完成后,Ollama服务应该会自动启动。为确保它已启动,可以运行:

ollama serve

这个命令会启动服务并保持在前台运行。注意:只要这个命令行窗口不关闭,Ollama服务就会一直运行。

Step4:验证与运行模型(新开窗口)
  1. 保持上面 ollama serve 的窗口不要关闭
  2. 另外新开一个PowerShell窗口(同样以管理员身份),再次进入WSL:
wsl
  1. 在新开的WSL命令行里,就可以正常拉取和运行模型了,直接进入Ubuntu终端就不用像powershell先输入wsl。例如:
ollama run qwen2.5:7b

4.在ubuntu终端执行以下一行命令即可启动Open WebUI

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
执行该命令后如果提示错误1:
xxx@localhost:~$ docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghrc.io/open-webui/open-webui:main

The command 'docker' could not be found in this WSL 2 distro.
We recommend to activate the WSL integration in Docker Desktop settings.

For details about using Docker Desktop with WSL 2, visit:

https://docs.docker.com/go/wsl2/

解决方案:在docker desktop中按图设置

执行该命令后如果提示错误2:
xxx@localhost:~$ docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghrc.io/open-webui/open-webui:main
permission denied while trying to connect to the docker API at unix:///var/run/docker.sock

这个错误是因为你的Ubuntu用户(fuduodu没有权限访问Docker服务。需要将你的用户添加到 docker 用户组中。这是一个标准的Linux权限配置步骤。

解决方案:

# 1. 将当前用户添加到名为“docker”的用户组中(需要输入你的Ubuntu密码)
sudo usermod -aG docker $USER

# 2. 应用新的组权限(关键!必须执行这一步)
newgrp docker

# 3. 测试权限是否已修复
docker ps
# 如果状态是 “Up”,并且端口映射显示 0.0.0.0:3000->8080/tcp,就说明服务已经就绪。如果显示空列表(CONTAINER ID IMAGE ...)而没有错误,说明权限配置成功。

启动等待约1分钟后,在浏览器访问 http://localhost:3000,注册账号后即可使用。在界面中,你可以直接选择已通过Ollama下载好的模型进行对话。

可能遇到的问题1:输入网址后如果提示“This page isn’t working localhost didn’t send any data.”

这个错误提示通常意味着 Docker 容器内的应用尚未启动完成,或者端口映射/网络连接存在问题

解决方案:

Step1:检查容器状态(最关键)
docker ps -a
  • 正常情况:应看到 open-webui 容器的 STATUS 显示为 Up,并且 PORTS 列显示 0.0.0.0:3000->8080/tcp
  • 如果状态是 Exited:说明容器启动失败了,直接跳到第3步查看日志。
Step2. 检查端口监听
如果容器状态是 Up,检查端口是否正常监听:

bash

# 在 WSL 内部检查
curl -s -o /dev/null -w "%{http_code}" http://localhost:8080
  • 如果返回 200 302:说明容器内的服务(端口8080)已就绪,问题出在从Windows到WSL的端口转发。请尝试在Windows浏览器中访问:http://127.0.0.1:3000http://<你的WSL IP>:3000 (在Ubuntu终端用 hostname -I 查看IP)。
  • 如果返回 000 或其他错误:说明容器内服务未响应,继续第3步

Step3. 查看容器启动日志(定位问题根源)

docker logs -f open-webui
  • 仔细观察最后几行日志,常见情况有:
    • 成功:看到 Application startup complete.Uvicorn running on...,说明应用已启动,请稍等30秒再刷新浏览器。
    • 错误
      • 端口被占用address already in use。需要先停止冲突的服务或更改端口(例如将 -p 3000:8080 改为 -p 3001:8080)。
      • 权限不足permission denied。可能需要检查数据卷权限。
      • 数据库连接/依赖问题:会有具体的报错堆栈信息。

5.WebUI页面打开后,模型列表为空怎么办?

    • 根本原因:WebUI无法连接到Ollama服务。
    • 排查步骤
      1. 确认 ollama serve 服务正在运行。
      2. 最佳实践:不要使用 host.docker.internal,而是直接使用 WSL2的IP地址,可以绕过复杂的Docker网络解析问题。

最后:

问题1:为什么要在linux ubuntu里面配置部署?

AI模型的核心引擎是“Linux原生应用”,Ubuntu (WSL) 在这里扮演的不是“另一台电脑”,而是Windows系统里一个完全原生、高性能的Linux兼容层(或称为“子系统”),专门用来运行那些为Linux生态打造的关键软件。

层面

原因说明

类比

技术生态

Ollama的引擎、AI模型框架(如llama.cpp)、以及大多数开源AI工具链,都是为Linux环境开发和优化的。它们依赖Linux内核的特定功能和高效的资源管理方式。

就像许多专业的视频剪辑、3D渲染软件最初只为macOS开发一样,有特定的“水土”。

性能与兼容性

在WSL2中运行Linux二进制文件的性能,远超在Windows上通过模拟或转换层运行。WSL2提供了一个完整的Linux内核,保证了与上游开源项目100%的兼容性。

在专业的赛车引擎(Linux内核)上跑,比把赛车引擎改装到家用轿车(Windows)上要稳定、快得多。

开发与部署一致性

全球的AI开发者和研究者几乎都在Linux/macOS环境下工作。通过WSL,你获得了一个与他们完全一致的命令行环境,可以无障碍地运行所有教程和社区中的命令。

使用全球通用的“标准电源插头”(Linux),而不是需要“转换插头”的特殊接口。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐