| 备注 | 修改日期 | 修改人 |
| 创建版本 | 2025-03-14 11:50:47[当前版本] | 李永鑫 |
CPUOS2010 已于 2025-01-29 23:30:20 修改
阅读量5.2k
收藏 40
点赞数 7
分类专栏: AI大模型 文章标签: windows docker 容器 AI编程
于 2025-01-29 23:27:57 首次发布
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/CPUOS2010/article/details/145396003
版权
AI大模型 专栏收录该内容
1 篇文章
订阅专栏
本文将详细介绍如何在 Windows 系统 上安装和使用 Docker+Ollama + Open-WebUI,这三个强大的工具将帮助您轻松管理和运行大型语言模型DeepSeek。Ollama 简化了模型的下载与部署,而 Open-WebUI 则提供了一个直观的图形用户界面,使用户能够更方便地与模型进行交互。
如果你使用的是 Windows 10 或更高版本,建议启用 WSL 2 后端以提高性能。
打开命令提示符或 PowerShell,输入以下命令:
docker --version
访问 Ollama 官方网站 或 GitHub 仓库,下载适用于 Windows 的 Ollama 安装程序。
按照提示完成安装。
打开命令提示符或 PowerShell,输入以下命令:
ollama --version
如果显示 Ollama 版本信息,说明安装成功。
在CMD命令提示符使用以下命令下载 DeepSeek-V3 模型:
ollama run deepseek-v3
等待模型下载完成。
使用以下命令测试模型:
ollama run deepseek-v3 "你好,DeepSeek-V3!"
如果模型返回响应,说明模型加载成功。
Open WebUI 是一个用于与大模型交互的 Web 界面。使用以下命令拉取 Open WebUI 镜像:
docker pull ghcr.io/open-webui/open-webui:main
使用以下命令启动 Open WebUI 容器,并连接到 Ollama:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
解释:
-d:后台运行容器。 -p 3000:8080:将容器的 8080 端口映射到主机的 3000 端口。 --add-host=host.docker.internal:host-gateway:添加主机映射,使容器能够访问主机服务。 -v open-webui:/app/backend/data:将 Open WebUI 的数据目录挂载到 Docker 卷 open-webui。 --name open-webui:为容器命名。 --restart always:设置容器始终自动重启。 ghcr.io/open-webui/open-webui:main:使用的 Docker 镜像。 打开浏览器,访问 http://localhost:3000。 如果看到 Open WebUI 的登录界面,说明运行成功。
http://localhost:3000
首次访问 Open WebUI 时,需要创建一个账户。
在 Open WebUI 界面中,进入设置页面。
http://host.docker.internal:11434,然后保存设置。 在 Open WebUI 界面中,找到模型选择菜单。
DeepSeek-V3 作为当前使用的模型。 在输入框中输入问题或指令,例如:
你好,DeepSeek-V3!你能帮我写一段代码吗?
点击“发送”按钮,等待模型生成回复。
如果需要停止容器,可以使用以下命令:
docker stop open-webui
如果需要删除容器,可以使用以下命令:
docker rm open-webui