Ubuntu 本地部署 Ollama + qwen3.5:9b + OpenWebUI 完全指北

·IIAI = 50%,人机平等对话,各占一半,作者提供想法与方向,AI提供框架与内容支撑。

#Ollama#qwen3.5:9b#OpenWebUI

修改IP

这篇指南将带你从零开始,在 Ubuntu 系统上搭建一套完全私有化、具备高颜值交互界面的 AI 对话系统。我们将使用 Ollama 作为后端引擎,部署阿里最新的 Qwen 3.5 (9B) 模型,并配合 Open WebUI 实现类 ChatGPT 的操作体验。


🚀 部署架构一览

  • Ollama: 核心引擎,负责模型的管理与推理。
  • Qwen 3.5-9B: 阿里出品的高性能大语言模型。
  • Open WebUI: 基于 Docker 部署的前端界面,支持多用户、联网搜索和文档解析。

第一步:安装 Ollama 后端

Ollama 是目前 Linux 平台上部署本地模型最简单的工具。

  1. 一键安装: 打开终端,执行以下命令:
curl -fsSL https://ollama.com/install.sh | sh

  1. 验证安装: 安装完成后,检查 Ollama 服务状态:
systemctl status ollama

显示如下就可以证明安装成功:

bosi@bosi:~$ systemctl status ollama
● ollama.service - Ollama Service
     Loaded: loaded (/etc/systemd/system/ollama.service; enable>
    Drop-In: /etc/systemd/system/ollama.service.d
             └─override.conf
     Active: active (running) since Wed 2026-03-04 08:18:57 CST>
   Main PID: 84301 (ollama)
      Tasks: 46 (limit: 76749)
     Memory: 17.5M (peak: 1.6G)
        CPU: 15min 51.205s
     CGroup: /system.slice/ollama.service
             └─84301 /usr/local/bin/ollama serve

💡 提示:如果你的 Ubuntu 配备了 NVIDIA 显卡,Ollama 会自动安装驱动支持(驱动版本需满足要求),实现 GPU 加速。


第二步:运行 Qwen 3.5 (9B) 模型

Qwen 3.5 是目前开源界的第一梯队,9B 版本在性能和显存占用之间取得了完美的平衡。

  1. 下载并运行模型: 在终端输入:
ollama run qwen3.5:9b

这条命令会自动从官方库拉取权重文件。下载完成后,你可以直接在终端与它对话。 2. 常用命令参考:

  • 查看已下载模型:ollama list
  • 删除模型:ollama rm qwen3.5:9b

第三步:Docker 安装 Open WebUI

为了获得最佳的 UI 体验,我们使用 Docker 部署 Open WebUI。它能自动识别本地的 Ollama 服务。

  1. 安装 Docker(如果尚未安装):
sudo apt update && sudo apt install docker.io -y
sudo systemctl enable --now docker

  1. 部署 Open WebUI 容器: 如果你的 Ollama 和 Docker 在同一台机器上,运行以下命令:
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  ghcr.io/open-webui/open-webui:main

关键参数说明:

  • -p 3000:8080: 将容器的 8080 端口映射到本地的 3000 端口。
  • --add-host=host.docker.internal:host-gateway: 允许 Docker 容器访问宿主机上的 Ollama 服务。
  • -v open-webui:/app/backend/data: 持久化存储你的聊天记录和设置。

第四步:配置与使用

  1. 访问界面: 打开浏览器,输入 http://localhost:3000
  2. 注册账号: 第一个注册的账号将自动成为管理员
  3. 选择模型: 进入页面后,在顶部的模型下拉菜单中选择 qwen3.5:9b。如果列表为空,请检查 设置 -> 外部连接 里的 Ollama 地址是否配置正确(默认通常为 http://host.docker.internal:11434)。

🛠️ 进阶技巧与常见问题

1. 开启远程访问

如果你想在局域网内的其他设备访问这台 Ubuntu 上的 Ollama,需要修改环境变量:

sudo systemctl edit ollama.service

[Service] 下方添加:

Environment="OLLAMA_HOST=0.0.0.0"

保存后重启服务:sudo systemctl daemon-reload && sudo systemctl restart ollama

常见错误

如果Open WebUI 一直链接不上本地的ollama,那一定是容器无法通过网络访问本地的ollama,除了上边的ollama开启远程访问之外还要设置容器中的ollama外网IP,我是在的DPanel 面板里直接修改的容器环境变量具体入下图:

修改IP

修改成自己的局域网IP就好了!

2. 硬件建议

  • 内存: 运行 9B 模型建议至少 16GB 内存。
  • 显存: 显存大于 8GB(如 RTX 3060/4060 及以上)可获得极速流式输出;若显存不足,Ollama 会自动切换到 CPU 模式。

结语

至此,你已经拥有了一个完全属于自己的本地 AI 工作站。没有 Token 费用,没有隐私泄露,断网也能用!

相关文章