Multica 将编码 Agent 变成真正的队友。像分配给同事一样分配给 Agent——它们会自主接手工作、编写代码、报告阻塞问题、更新状态。
不再需要复制粘贴 prompt,不再需要盯着运行过程。你的 Agent 出现在看板上、参与对话、随着时间积累可复用的技能。可以理解为开源的 Managed Agents 基础设施——厂商中立、可自部署、专为人类 + AI 团队设计。支持 Claude Code、Codex、OpenClaw、OpenCode、Hermes、Gemini、Pi 和 Cursor Agent。
Multica 管理完整的 Agent 生命周期:从任务分配到执行监控再到技能复用。
- Agent 即队友 — 像分配给同事一样分配给 Agent。它们有个人档案、出现在看板上、发表评论、创建 Issue、主动报告阻塞问题。
- 自主执行 — 设置后无需管理。完整的任务生命周期管理(排队、认领、执行、完成/失败),通过 WebSocket 实时推送进度。
- 可复用技能 — 每个解决方案都成为全团队可复用的技能。部署、数据库迁移、代码审查——技能让团队能力随时间持续增长。
- 统一运行时 — 一个控制台管理所有算力。本地 daemon 和云端运行时,自动检测可用 CLI,实时监控。
- 多工作区 — 按团队组织工作,工作区级别隔离。每个工作区有独立的 Agent、Issue 和设置。
brew install multica-ai/tap/multica后续可用 brew upgrade multica-ai/tap/multica 更新 CLI。
curl -fsSL https://raw.githubusercontent.com/multica-ai/multica/main/scripts/install.sh | bash如果没有 Homebrew,可以使用安装脚本。脚本会安装 Multica CLI:检测到 brew 时通过 Homebrew 安装,否则直接下载二进制。
irm https://raw.githubusercontent.com/multica-ai/multica/main/scripts/install.ps1 | iex安装完成后,一条命令完成配置、认证和启动:
multica setup # 连接 Multica Cloud,登录,启动 daemon自部署? 加上
--with-server在本地部署完整的 Multica 服务:curl -fsSL https://raw.githubusercontent.com/multica-ai/multica/main/scripts/install.sh | bash -s -- --with-server multica setup self-host需要 Docker。详见 自部署指南。
安装好 CLI(或注册 Multica 云服务)后,按以下步骤将第一个任务分配给 Agent:
multica setup # 配置、认证、启动 daemon(一条命令搞定)daemon 在后台运行,保持你的机器与 Multica 的连接。它会自动检测 PATH 中可用的 Agent CLI(claude、codex、openclaw、opencode、hermes、gemini、pi、cursor-agent)。
在 Multica Web 端打开你的工作区,进入 设置 → 运行时(Runtimes),你应该能看到你的机器已作为一个活跃的 Runtime 出现在列表中。
什么是 Runtime(运行时)? Runtime 是可以执行 Agent 任务的计算环境。它可以是你的本地机器(通过 daemon 连接),也可以是云端实例。每个 Runtime 会上报可用的 Agent CLI,Multica 据此决定将任务路由到哪里执行。
进入 设置 → Agents,点击 新建 Agent。选择你刚连接的 Runtime,选择 Provider(Claude Code、Codex、OpenClaw、OpenCode、Hermes、Gemini、Pi 或 Cursor Agent),并为 Agent 起个名字——它将以这个名字出现在看板、评论和任务分配中。
在看板上创建一个 Issue(或通过 multica issue create 命令创建),然后将其分配给你的新 Agent。Agent 会自动接手任务、在你的 Runtime 上执行、并实时汇报进度——就像一个真正的队友一样。
大功告成!你的 Agent 现在是团队的一员了。 🎉
| Multica | Paperclip | |
|---|---|---|
| 定位 | 团队 AI Agent 协作平台 | 个人 AI Agent 公司模拟器 |
| 用户模型 | 多人团队,角色权限 | 单人 Board Operator |
| Agent 交互 | Issue + Chat 对话 | Issue + Heartbeat |
| 部署 | 云端优先 | 本地优先 |
| 管理深度 | 轻量(Issue / Project / Labels) | 重度(组织架构 / 审批 / 预算) |
| 扩展 | Skills 系统 | Skills + 插件系统 |
简单来说:Multica 专为团队协作打造,让团队和 AI Agent 一起高效完成项目。
┌──────────────┐ ┌──────────────┐ ┌──────────────────┐
│ Next.js │────>│ Go 后端 │────>│ PostgreSQL │
│ 前端 │<────│ (Chi + WS) │<────│ (pgvector) │
└──────────────┘ └──────┬───────┘ └──────────────────┘
│
┌──────┴───────┐
│ Agent Daemon │ 运行在你的机器上
└──────────────┘ (Claude Code、Codex、OpenCode、
OpenClaw、Hermes、Gemini、
Pi、Cursor Agent)
| 层级 | 技术栈 |
|---|---|
| 前端 | Next.js 16 (App Router) |
| 后端 | Go (Chi router, sqlc, gorilla/websocket) |
| 数据库 | PostgreSQL 17 with pgvector |
| Agent 运行时 | 本地 daemon 执行 Claude Code、Codex、OpenClaw、OpenCode、Hermes、Gemini、Pi 或 Cursor Agent |
参与 Multica 代码贡献,请参阅 贡献指南。
环境要求: Node.js v20+, pnpm v10.28+, Go v1.26+, Docker
pnpm install
cp .env.example .env
make setup
make start完整的开发流程、worktree 支持、测试和问题排查请参阅 CONTRIBUTING.md。

