一、环境准备
1. 安装Ollama客户端
-
官网下载:https://ollama.com
-
验证安装:
ollama --version
2. 安装Docker Desktop
-
下载地址:https://www.docker.com/products/docker-desktop
-
安装后确保Docker状态为"Running"
二、基础搭建(3步完成)
1. 启动Ollama服务
ollama serve
保持此终端窗口不要关闭
2. 下载模型
ollama pull llama3 # 推荐8B版本(约4.7GB)
-
也可以从ollama窗口复制指令
ollama run llama3.2
3. 部署Open WebUI(图形界面)
docker run -d -p 3000:8080 \-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \-v openwebui_data:/app/backend/data \--name openwebui \ghcr.io/open-webui/open-webui:main
4.完成后在docker会看到
三、功能使用
1. 访问图形界面
浏览器打开:http://localhost:3000
2. 文档训练与问答
方法一:简单上传
- 拖拽文件(PDF/TXT/Word)到聊天输入框
- 提问时勾选"Use Knowledge"
方法二:创建知识库
- 左侧菜单 → Documents → Create Collection
- 上传文件并关联到知识库
- 提问时选择对应知识库
3. 模型管理
ollama list # 查看已下载模型
ollama pull mistral # 下载新模型
四、异常处理
1. 端口冲突(11434被占用)
lsof -i :11434 # 查看占用进程
kill -9 <PID> # 终止进程
2. Open WebUI无法连接
docker logs openwebui # 查看错误日志
3. 文档上传无效
-
确保启动时添加了-e ENABLE_RAG=true
-
检查文件格式(推荐PDF/TXT)
五、进阶配置
1. 性能优化
使用GPU加速(需NVIDIA显卡)
docker run ... --gpus all ...
2. 自定义模型
创建Modelfile:
FROM llama3
SYSTEM "你是一个专业助手..."
构建自定义模型:
ollama create mymodel -f ./Modelfile