# Microi.OpenClaw **Repository Path**: microi-net/microi.openclaw ## Basic Information - **Project Name**: Microi.OpenClaw - **Description**: OpenClaw 本地管理工具,一键环境搭建 & 服务管理 & 远程连接 Microi 吾码低代码平台。 - **Primary Language**: Unknown - **License**: MIT - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 1 - **Forks**: 1 - **Created**: 2026-03-13 - **Last Updated**: 2026-03-13 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # 🦞 Microi.OpenClaw **OpenClaw 本地管理工具** —— AI 智能助手网关 · 一键环境搭建 · 多模型接入 · 可独立运行/可接入 Microi 平台
---
## 🏗️ 架构
```
microi.openclaw/
├── electron/ # Electron 主进程
│ └── main.js # 桌面应用入口(端口重试逻辑)
├── index.html # 页面入口
├── package.json # 项目配置 + electron-builder 打包
├── vite.config.js # Vite 构建配置
│
├── src/ # 前端 (Vue 3 + Element Plus)
│ ├── main.js # 入口
│ ├── App.vue # 根组件 (暗色主题)
│ ├── router/index.js # 路由
│ └── views/
│ ├── Layout.vue # 侧边栏布局 (含 IP+端口显示)
│ ├── Chat.vue # 💬 AI 对话 (聊天框)
│ ├── Home.vue # 主页 (状态+快捷操作)
│ ├── Environment.vue # 环境管理
│ ├── Service.vue # 服务管理 (资源监控始终显示)
│ ├── Config.vue # 配置编辑 (模型模板 + 浏览器自动化)
│ ├── Plugins.vue # 🧩 插件管理 (npm/CDN 双源)
│ ├── Logs.vue # 实时日志
│ └── Remote.vue # 远程连接
│
├── server/ # 后端 (Express + WebSocket)
│ ├── index.js # 服务入口 (端口 5567+)
│ ├── utils.js # 工具函数 (Node.js/npm 路径探测)
│ ├── app-config.js # 应用持久化配置(重装不丢失)
│ └── routes/
│ ├── chat.js # 💬 AI 对话代理 (转发至 Gateway)
│ ├── env.js # 环境检测与自动安装
│ ├── service.js # Gateway 启停
│ ├── config.js # 配置读写 (openclaw.json + 浏览器配置)
│ ├── plugins.js # 🧩 插件管理 (npm/CDN 双源安装)
│ ├── logs.js # 日志读取
│ ├── status.js # 系统状态 + 网络信息
│ ├── machine.js # 机器信息
│ ├── remote.js # 远程连接
│ └── action.js # 快捷操作
│
├── dist/ # 前端构建产物
└── release/ # 安装包输出目录
└── Microi.OpenClaw Setup 1.0.0.exe
```
---
## 🚀 快速开始
### 普通用户(推荐)
直接下载安装包,双击安装即可使用,**无需任何编程知识**:
| 平台 | 下载 |
|---|---|
| Windows | [Microi.OpenClaw Setup 1.0.0.exe](https://gitee.com/microi-net/microi.openclaw/releases) |
| macOS (Intel) | [Microi.OpenClaw-1.0.0.dmg (x64)](https://gitee.com/microi-net/microi.openclaw/releases) |
| macOS (Apple Silicon) | [Microi.OpenClaw-1.0.0-arm64.dmg](https://gitee.com/microi-net/microi.openclaw/releases) |
| Linux | [Microi.OpenClaw-1.0.0.AppImage](https://gitee.com/microi-net/microi.openclaw/releases) |
安装后打开应用,进入 **环境管理**,点击 **一键安装全部依赖**,即可自动下载 Node.js 22 和 OpenClaw CLI。
### 开发者
```bash
git clone https://gitee.com/microi-net/microi.openclaw.git
cd microi.openclaw
npm install
npm run dev
```
> **Windows 开发者注意(使用 nvm4w 时)**
>
> 如果你使用 [nvm for Windows](https://github.com/coreybutler/nvm-windows) 管理 Node.js 版本,首次切换版本后 PowerShell 可能报错:
> ```
> 无法加载文件 npm.ps1,因为在此系统上禁止运行脚本
> ```
> 执行以下命令解决(只需一次):
> ```powershell
> Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser
> ```
### 首次使用
1. 打开管理界面,进入 **环境管理** 页面
2. 点击 **🚀 一键安装全部依赖**(自动下载 Node.js 22 便携版 + OpenClaw CLI)
3. 全部显示 ✅ 后,进入 **配置编辑** 页面
4. 选择模型模板(如 DeepSeek V3),填入 API Key,点击保存
5. 进入 **服务管理** 启动 Gateway,或直接在 **AI 对话** 中与 AI 交互
6. 侧边栏底部可查看当前 **内网/外网 IP + 端口**,路由器映射时使用
### 支持的大模型
| 模型 | 配置方式 | 说明 |
|---|---|---|
| DeepSeek-V3 | 内置模板,填 API Key 即可 | 推荐 · 高性价比国产大模型 |
| 通义千问 (Qwen) | 内置模板,填 DashScope API Key | 阿里云通义千问 |
| Ollama 本地模型 | 内置模板,填本地地址 | 完全离线,隐私安全 |
| GPT-4o | 内置模板,填 OpenAI Key | OpenAI |
| Claude | 内置模板,填 Anthropic Key | Anthropic |
| 自定义 | 手动填写 Base URL + Key | 兼容 OpenAI 格式的任意服务 |
---
## ⚙️ 独立运行 vs 接入 Microi 平台
### 独立运行(无需 Microi 平台)
本工具 **开箱即用**,独立运行时提供以下功能:
- 💬 **AI 对话**:内置聊天框,直接与大模型交互
- 🤖 **模型配置**:可视化切换 DeepSeek / Qwen / Ollama / GPT / Claude
- ▶️ **Gateway 管理**:启动/停止/重启/日志查看
- 📦 **环境自检**:Node.js 22 + npm + OpenClaw CLI + Git
- 🌐 **网络信息**:显示 IP 和端口,支持路由器端口映射后外网访问
### 接入 Microi 吾码低代码平台
作为 Microi 平台的**本地节点**,实现多节点集中管控:
```
┌─────────────────────────┐
│ Microi 吾码低代码平台 │
│ (云端 / 内网服务器) │
│ │
│ 统一管理多个节点 │
└─────┬───────────┬─────────┘
│ │
心跳上报 │ │ 心跳上报
▼ ▼
┌───────────────┐ ┌───────────────┐
│ 节点A (Win) │ │ 节点B (Mac) │
│ microi.openclaw│ │ microi.openclaw│
│ ↓ 管理 ↓ │ │ ↓ 管理 ↓ │
│ OpenClaw GW │ │ OpenClaw GW │
└───────────────┘ └───────────────┘
```
在 **远程连接** 页面填入 Microi 平台地址和密钥,即可将本地节点接入平台统一管理。
---
## 🛠️ 技术栈
| 层级 | 技术 | 说明 |
|---|---|---|
| 桌面框架 | Electron 33 | 跨平台桌面应用 |
| 前端框架 | Vue 3 + Vite | 现代化前端工具链 |
| UI 组件 | Element Plus | 企业级组件库 |
| 后端框架 | Express 4 | Node.js Web 框架 |
| AI 运行时 | OpenClaw | Node.js/TypeScript AI 助手网关 |
| 实时通信 | ws (WebSocket) | 日志推送 & 进程输出 |
| 进程管理 | tree-kill | 跨平台进程树终止 |
| 机器标识 | node-machine-id | 生成机器唯一码 |
---
## 📝 配置说明
### 配置文件
OpenClaw 使用 `~/.openclaw/openclaw.json` 作为全局配置文件,可通过管理界面的 **配置编辑** 页面修改。
### 配置持久化
应用配置(API Key、模型、Provider 等)会自动保存到独立的持久化目录,**重装 exe 不会丢失**:
| 平台 | 持久化路径 |
|---|---|
| Windows | `%APPDATA%\microi-openclaw\config.json` |
| macOS | `~/Library/Application Support/microi-openclaw/config.json` |
| Linux | `~/.config/microi-openclaw/config.json` |
重装后首次启动时,程序会自动从持久化配置恢复 OpenClaw 配置文件,无需重新手动配置。
### 端口
| 服务 | 端口 | 说明 |
|---|---|---|
| 前端开发 | 5566 | Vite 开发服务器 |
| 管理后端 | 5567+ | Express + WebSocket(占用时自动 +1,最多尝试 10 次) |
| OpenClaw Gateway | 18789 | OpenClaw AI 网关(可在配置中修改) |
---
## 🔧 开发命令
```bash
# 同时启动前端 + 后端(Web 开发模式)
npm run dev
# Electron 开发模式(桌面窗口)
npm run dev:electron
# 仅启动后端
npm run dev:server
# 仅启动前端
npm run dev:client
# 构建前端
npm run build:web
# 构建 Windows 安装包
npm run build:win
# 构建 macOS 安装包(Intel + Apple Silicon)
npm run build:mac
# 构建 Linux 安装包
npm run build:linux
```
---
## 🧩 插件管理
OpenClaw 支持通过插件扩展 AI 能力(微信、语音通话、Teams 等)。本工具提供可视化的插件管理界面。
### 安装方式
| 方式 | 说明 |
|---|---|
| **推荐插件** | 在插件管理页面,点击推荐列表中的「安装」按钮 |
| **手动安装** | 输入 npm 包名,点击「安装」(如 `@icesword760/openclaw-wechat`) |
### 下载源切换
支持 **npm 官方源** 和 **CDN 加速源** 两种下载方式:
| 下载源 | 说明 |
|---|---|
| npm 官方源 | 默认方式,通过 `openclaw plugins install` 在线安装 |
| CDN 加速源 | 从自定义 CDN 下载 tgz 包后本地安装,**国内网络推荐** |
CDN 默认地址为 `https://static.itdos.com/openclaw`,可在插件管理页面修改。
#### CDN 目录结构
如果你需要自建 CDN 源,请按以下结构放置文件:
```
https://your-cdn.com/openclaw/
├── openclaw/latest.tgz ← OpenClaw CLI 主程序
└── plugins/
├── @icesword760/openclaw-wechat/latest.tgz
├── @openclaw/voice-call/latest.tgz
├── @openclaw/msteams/latest.tgz
└── ...
```
### 推荐插件
| 插件 | 说明 |
|---|---|
| 💬 `@icesword760/openclaw-wechat` | 微信消息监控、自动回复、群管理 |
| 📞 `@openclaw/voice-call` | AI 语音通话能力 |
| 👥 `@openclaw/msteams` | Microsoft Teams 频道集成 |
| 🔗 `@openclaw/matrix` | Matrix 通道集成 |
| 📡 `@openclaw/nostr` | Nostr 去中心化通道 |
---
## 🌍 浏览器自动化
在 **配置编辑** 页面可以配置浏览器自动化参数,为 AI 赋予浏览器操作能力:
| 配置项 | 说明 |
|---|---|
| Chromium 路径 | 指定 Chromium / Chrome 可执行文件路径 |
| Headless 模式 | 开启后浏览器在后台运行,不显示窗口 |
---
## ❓ 常见问题
### Q: 一键安装卡住或失败?
Node.js 22 便携版约 30MB,国内网络可能较慢。程序会自动从 nodejs.org 下载。如果多次失败,可手动安装 Node.js 22 并确保加入 PATH。
### Q: 安装 OpenClaw CLI 失败?
```bash
# 手动安装
npm install -g openclaw@latest
```
### Q: 端口 5567 被占用?
程序会自动尝试 5567 ~ 5576 共 10 个端口。如果全部被占用,请先释放端口。
### Q: 如何使用 Ollama 本地模型?
1. 安装并启动 [Ollama](https://ollama.com/)
2. 在配置编辑中选择 **Ollama** 模板
3. 确认 Base URL 为 `http://localhost:11434`
4. 填入模型名(如 `llama3.1`)
5. 保存并重启 Gateway
### Q: 如何从外网访问?
侧边栏底部显示当前服务的内网 IP 和端口。在路由器设置端口映射(将外网端口映射到该 IP:端口)即可外网访问。
### Q: 安装插件超时或失败?
1. 切换下载源:在 **插件管理** 页面将下载源切换为 **CDN 加速源**
2. CDN 方式从 `https://static.itdos.com/openclaw` 下载,国内网络更稳定
3. 如果 CDN 也失败,检查网络连接或联系管理员确认 CDN 资源已上传
---
## 🤝 相关项目
| 项目 | 说明 |
|---|---|
| [OpenClaw](https://github.com/openclaw/openclaw) | OpenClaw Node.js AI 智能助手网关 |
| [Microi.net](https://microi.net) | Microi 吾码低代码平台 |
---
## 📄 许可证
MIT License
---
Made with ❤️ for the OpenClaw & Microi community