docker

关注公众号 jb51net

关闭
首页 > 网站技巧 > 服务器 > 云和虚拟化 > docker > Docker部署Ollama与Open-WebUI

Docker环境下快速部署Ollama与Open-WebUI的详细指南

作者:林九生

在本篇文章中,我们将深入探讨如何在Docker中高效部署 Ollama 和 Open-WebUI,并解决在实际使用中常见的问题,有需要的小伙伴可以跟随小编一起学习一下

在本篇文章中,我们将深入探讨如何在Docker中高效部署 OllamaOpen-WebUI,并解决在实际使用中常见的问题,确保你的模型服务稳定高效地运行。

一、Ollama 和 Open-WebUI 快速部署

1. 启动 Ollama

我们首先使用 Docker 运行 Ollama,确保它具备 GPU 加速功能:

docker run --name=ollama \
  --volume /home/user/.ollama:/root/.ollama \
  --network=bridge \
  -p 11434:11434 \
  --runtime=nvidia \
  --gpus all \
  --detach=true \
  ollama/ollama serve

2. 启动 Open-WebUI

接下来,我们部署 Open-WebUI:

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  -e ENABLE_OPENAI_API=False \
  ghcr.io/open-webui/open-webui:main

二、Ollama 模型调用示例

在 Ollama 容器中,我们可以轻松运行模型:

docker exec -it ollama ollama run llama2

ollama run llama2:指定调用的模型(此处为 llama2)。

三、常见错误与解决方法

错误一:忘记 Open-WebUI 账号密码

如果你忘记了 Open-WebUI 的账号密码,需清除数据:

docker volume rm open-webui

注意:这将清除所有数据,请谨慎操作!

错误二:模型版本不兼容

如果在尝试运行模型(如 Qwen3:32b)时,出现如下错误:

Error: pull model manifest: 412:
The model you are attempting to pull requires a newer version of Ollama.

这意味着 Ollama 版本已过期,无法兼容最新模型。

解决方法:升级 Ollama

1. 停止并删除旧版本容器

docker stop ollama
docker rm ollama

2. 拉取最新的 Ollama 镜像

docker pull ollama/ollama:latest

3. 使用最新版本启动 Ollama

docker run --name=ollama \
  --volume /home/user/.ollama:/root/.ollama \
  --network=bridge \
  -p 11434:11434 \
  --runtime=runc \
  --detach=true \
  ollama/ollama serve

4. 确保版本升级成功

docker exec -it ollama ollama --version

输出最新版本号即表示升级成功。

5. 再次运行 Qwen3:32b 模型

docker exec -it ollama ollama run qwen3:32b

四、最佳实践:提高模型部署稳定性

始终保持 Ollama 和 Open-WebUI 镜像为最新版本

docker pull ollama/ollama:latest
docker pull ghcr.io/open-webui/open-webui:main

使用持久化数据卷,防止数据丢失:

-v /home/user/.ollama:/root/.ollama
-v open-webui:/app/backend/data

定期备份重要配置和模型文件

五、总结

本文详细讲解了如何在 Docker 环境中部署 Ollama 和 Open-WebUI,并分析了常见错误和解决方法。无论你是刚入门 Docker 还是已经有一定经验,这篇指南都能帮助你快速构建稳定的模型服务。

到此这篇关于Docker环境下快速部署Ollama与Open-WebUI的详细指南的文章就介绍到这了,更多相关Docker部署Ollama与Open-WebUI内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

您可能感兴趣的文章:
阅读全文