建站免费加盟惠普网站建设的目标
建站免费加盟,惠普网站建设的目标,wordpress无法搜索插件,专业的深圳网站建设公司想拥有完全本地、无 Token 消耗、隐私安全的 AI 助手#xff1f;本文手把手教你在WindowsLinux双系统部署 OpenClaw#xff0c;并通过 Ollama 对接本地大模型#xff0c;全程离线可用、操作极简#xff0c;新手也能快速上手#xff01; 一、环境准备
系统#xff1a;Win…想拥有完全本地、无 Token 消耗、隐私安全的 AI 助手本文手把手教你在WindowsLinux双系统部署 OpenClaw并通过 Ollama 对接本地大模型全程离线可用、操作极简新手也能快速上手一、环境准备系统Windows 10/Ubuntu 20.04其他 Linux 发行版适配内存≥8GB推荐 16GB流畅运行本地模型依赖Node.js ≥22.x、Git工具Ollama本地大模型一键部署二、Windows 部署 OpenClaw1. 管理员启动 PowerShellWinX → 选择「Windows 终端 (管理员)」2. 配置执行策略必做Set-ExecutionPolicy -Scope CurrentUser -ExecutionPolicy RemoteSigned输入Y确认3. 一键安装 OpenClawiwr -useb https://openclaw.ai/install.ps1 | iex4. 验证安装openclaw --version显示版本号即安装成功5. 初始化配置openclaw onboard按提示选择Yes→QuickStart→ 暂时跳过模型配置后续对接 Ollama三、Linux 部署 OpenClaw1. 更新系统依赖sudo apt update sudo apt upgrade -y sudo apt install -y curl git2. 一键安装 OpenClawcurl -fsSL https://openclaw.ai/install.sh | bash3. 加载环境变量source ~/.bashrc4. 验证安装openclaw --version5. 初始化配置openclaw onboard配置流程同 Windows四、Ollama 本地大模型部署双系统通用1. Windows 安装 Ollama访问官网下载安装包https://ollama.com/download双击安装自动后台启动2. Linux 安装 Ollamacurl -fsSL https://ollama.com/install.sh | sh3. 启动 Ollama 服务ollama serve4. 拉取本地模型以通义千问 2.5 为例ollama pull qwen2.5:7b5. 验证模型运行ollama run qwen2.5:7b进入对话界面即成功五、OpenClaw 连接 Ollama 本地模型1. 配置 Ollama API Key无需真实密钥openclaw config set models.providers.ollama.apiKey ollama-local2. 配置 Ollama 服务地址openclaw config set models.providers.ollama.baseUrl http://localhost:11434/v13. 设置默认模型openclaw config set models.default ollama/qwen2.5:7b4. 重启 OpenClaw 生效# Windows/Linux通用 openclaw restart5. 验证连接openclaw config test models.provider.ollama返回「集成成功」即完成对接六、常见问题与避坑OpenClaw 安装失败检查 Node.js 版本≥22.x重新安装依赖后重试Ollama 无法访问确认端口 11434 未占用关闭防火墙 / 代理重试模型加载缓慢降低模型参数如使用 qwen2.5:1.8b增加内存分配对接失败务必在 baseUrl 末尾添加/v1这是核心兼容点七、总结本文完成了WindowsLinux 双系统 OpenClaw 部署并通过 Ollama 实现本地大模型无缝对接真正做到离线可用、零成本、隐私安全。后续可根据需求更换模型打造专属本地 AI 助手