设计师做画册必备网站,关于网站建设公司大全,没技术怎么做网站,怎么开网店不用自己发货囤货的Copaw Ollama 本地模型部署指南 一、当前配置状态 ✅ 已完成的配置 Docker 容器: 容器名称: copaw访问地址: http://localhost:8088/端口映射: 8088:8088数据目录: E:\copaw\data#xff08;已挂载#xff09;网络配置: --add-host host.docker.internal:host-gateway …Copaw Ollama 本地模型部署指南一、当前配置状态✅ 已完成的配置Docker 容器:容器名称: copaw访问地址: http://localhost:8088/端口映射: 8088:8088数据目录: E:\copaw\data已挂载网络配置:--add-host host.docker.internal:host-gatewayOllama 服务:运行端口: 11434当前模型: qwen2.5-coder:1.5b容器内访问地址: http://host.docker.internal:11434/v1# 下载镜像 docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/agentscope/copaw:latest # 更改镜像名称 docker tag swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/agentscope/copaw:latest agentscope/copaw:latest # 启动镜像需要注意映射本地路径为E:\copaw\data相关配置文件存放在此路径 docker run -d --network host -v E:\copaw\data:/app/working agentscope/copaw:latest二、启动容器命令如果需要重新启动容器使用以下命令# 停止并删除旧容器 docker stop copaw docker rm copaw # 启动新容器 docker run -d -p 8088:8088 --name copaw --add-host host.docker.internal:host-gateway -v E:\copaw\data:/app/working agentscope/copaw:latest # 等待启动约15秒 ping 127.0.0.1 -n 15 nul三、配置 Provider在浏览器访问 http://localhost:8088/ 后需要手动配置 Provider点击左侧菜单的齿轮图标Settings找到 Providers 或 模型提供商 部分选择 Ollama关键配置:Base URL:http://host.docker.internal:11434/v1API Key: 留空点击保存重要: 即使 API 显示的是 localhost也必须手动输入http://host.docker.internal:11434/v1四、测试步骤1. 访问界面打开浏览器: http://localhost:8088/2. 配置 Provider按照上述步骤配置 Ollama provider3. 选择模型点击模型选择器选择 Ollama provider选择模型qwen2.5-coder:1.5b4. 测试对话发送测试消息你好What is 11?介绍一下你自己预期结果:模型正常响应响应时间几秒到十几秒不出现连接错误五、常用命令查看容器状态docker ps | findstr copaw查看容器日志docker logs copaw --tail 50重启容器docker restart copaw测试连接# 测试 Ollama curl http://localhost:11434/api/tags # 测试 Copaw curl http://localhost:8088/api/models # 测试容器到 Ollama 的连接 docker exec copaw /app/venv/bin/python -c import urllib.request; print(urllib.request.urlopen(http://host.docker.internal:11434/api/tags, timeout5).read().decode())六、故障排查问题 1: 对话一直等待无响应可能原因: Provider 配置错误解决方法:在 Settings 中重新配置 Ollama provider确保 Base URL 是http://host.docker.internal:11434/v1重新选择模型问题 2: 无法连接到 Ollama检查步骤:# 1. 确认 Ollama 运行 curl http://localhost:11434/api/tags # 2. 确认容器启动参数 docker inspect copaw | findstr ExtraHosts # 3. 测试容器访问 docker exec copaw /app/venv/bin/python -c import urllib.request; print(urllib.request.urlopen(http://host.docker.internal:11434/api/tags, timeout5).read().decode())问题 3: API 显示的 Base URL 不正确说明: API 返回的current_base_url显示为http://localhost:11434/v1是正常的显示问题不影响实际使用。原因:API 显示值来自缓存或默认值实际调用时使用配置文件中的正确值解决方法:在 Web UI Settings 中手动输入正确的 Base URL确保容器能访问 Ollama使用上面的测试命令七、配置文件位置容器内配置文件位置/app/working/providers.json/app/src/copaw/providers/providers.json宿主机数据目录E:\copaw\data八、重要说明为什么使用 host.docker.internal在 Docker 容器中localhost指向容器内部不是宿主机127.0.0.1同样指向容器内部host.docker.internal是 Docker Desktop 提供的特殊 DNS 名称指向宿主机关于 --network host 模式在 Windows Docker Desktop 上--network host模式可能无法正常工作端口无法绑定。因此推荐使用端口映射方式。九、成功标志配置成功的标志✅ 可以访问 http://localhost:8088/✅ 容器可以访问 Ollama✅ 在 Settings 中配置了正确的 Base URL✅ 能选择 Ollama 模型✅ 发送消息后能收到回复✅ 回复内容合理十、快速验证脚本创建test-copaw.ps1:Write-Host Testing Copaw Ollama -ForegroundColor Cyan # Test Ollama Write-Host n[1] Ollama: -ForegroundColor Yellow try { curl http://localhost:11434/api/tags -UseBasicParsing -TimeoutSec 5 | Out-Null Write-Host [OK] Running -ForegroundColor Green } catch { Write-Host [ERROR] $_ -ForegroundColor Red } # Test Copaw Write-Host n[2] Copaw: -ForegroundColor Yellow try { curl http://localhost:8088/api/models -UseBasicParsing -TimeoutSec 5 | Out-Null Write-Host [OK] Running -ForegroundColor Green } catch { Write-Host [ERROR] $_ -ForegroundColor Red } # Test connection Write-Host n[3] Container - Ollama: -ForegroundColor Yellow $result docker exec copaw /app/venv/bin/python -c import urllib.request; print(urllib.request.urlopen(http://host.docker.internal:11434/api/tags, timeout5).read().decode()) 21 if ($LASTEXITCODE -eq 0 -and $result -match models) { Write-Host [OK] Connected -ForegroundColor Green } else { Write-Host [ERROR] Failed -ForegroundColor Red } Write-Host nVisit http://localhost:8088/ to test -ForegroundColor Cyan运行:powershell -ExecutionPolicy Bypass -File test-copaw.ps1十一、下一步配置成功后你可以安装更多模型:ollama pull llama3 ollama pull mistral ollama pull codellama调整模型参数: 在 Copaw Settings 中调整温度、最大 token 等使用 Copaw 功能: 尝试 Copaw 的技能、多智能体等高级功能配置方式: 端口映射 host.docker.internal