# 子Agent云端协作最佳实践 ## 1. 工作包完整性建议 ### 1.1 必要文件清单 每个Agent文件夹应包含: - ✅ `prompt.md` - 完整的系统提示词 - ✅ `context.md` - 项目上下文和依赖 - ✅ `api_contract.yaml` - API接口定义 - ✅ `checklist.md` - 开发检查清单 - ✅ `examples/` - 示例代码 - 🔲 `dependencies.md` - 明确的依赖关系图 - 🔲 `test_scenarios.md` - 测试场景说明 - 🔲 `integration_points.md` - 集成点说明 ### 1.2 自包含原则 - 每个Agent包应该是自包含的,包含所有必要信息 - 使用相对路径引用共享文档 - 将常用的代码片段直接包含在examples中 ## 2. Agent间通信机制 ### 2.1 接口契约管理 ```yaml # shared_contracts.yaml services: auth: provides: - get_current_user - require_admin - create_access_token requires: [] user: provides: - get_user_by_id - get_users_by_team requires: - auth.get_current_user ``` ### 2.2 Mock服务建议 为每个Agent提供其他模块的Mock实现: ```python # mocks/auth_mock.py async def get_current_user(): return User(id=1, username="test_user", role="admin") ``` ## 3. 云端开发流程优化 ### 3.1 Agent启动模板 ```markdown ## 快速启动 1. 我是 [Agent名称],负责 [模块名称] 2. 我的工作目录是 [目录路径] 3. 我依赖的模块有 [依赖列表] 4. 我需要先检查 [前置条件] ``` ### 3.2 上下文同步机制 - 创建共享的 `project_state.json` 记录各模块开发进度 - 定期更新 `integration_status.md` 记录集成状态 - 使用 `changelog.md` 记录重要变更 ## 4. 质量保证策略 ### 4.1 自动化检查脚本 ```python # scripts/check_agent_output.py def check_agent_code(): """检查Agent生成的代码质量""" - 检查import顺序 - 验证类型注解 - 确认异常处理 - 验证日志记录 ``` ### 4.2 集成测试协调 ```yaml # integration_test_plan.yaml test_order: 1: auth # 独立模块,先测试 2: user # 依赖auth 3: [course, exam, training] # 可并行 4: analytics # 依赖所有业务模块 ``` ## 5. 协作沟通机制 ### 5.1 状态报告模板 ```markdown ## Agent-[Name] 状态报告 - 完成度: 70% - 已完成: [功能列表] - 进行中: [功能列表] - 阻塞项: [问题列表] - 需要协调: [事项列表] ``` ### 5.2 问题升级机制 1. Agent内部解决 2. 查看其他Agent的实现 3. 更新shared_contracts 4. 人工介入协调 ## 6. 性能和安全考虑 ### 6.1 代码生成限制 - 单个文件不超过500行 - 复杂逻辑拆分为多个函数 - 避免深层嵌套(最多3层) ### 6.2 安全检查点 - 不硬编码敏感信息 - 所有用户输入需验证 - SQL查询使用参数化 - API需要适当的权限检查 ## 7. 持续改进建议 ### 7.1 反馈循环 ```mermaid graph LR A[Agent生成代码] --> B[自动化测试] B --> C[代码审查] C --> D[集成测试] D --> E[更新prompt] E --> A ``` ### 7.2 知识库建设 - 收集常见错误和解决方案 - 整理最佳实践代码片段 - 更新Agent的示例代码 - 优化prompt描述 ## 8. 工具支持 ### 8.1 辅助脚本 ```bash # 同步所有Agent的基础文件 ./scripts/sync_base_files.sh # 检查Agent输出质量 ./scripts/validate_agent_output.sh # 生成集成报告 ./scripts/generate_integration_report.sh ``` ### 8.2 监控面板 创建简单的Web界面显示: - 各Agent的开发进度 - 依赖关系图 - 集成测试状态 - 问题和阻塞项 ## 9. 应急预案 ### 9.1 Agent失效处理 - 保留人工开发的备选方案 - 关键模块优先人工review - 建立rollback机制 ### 9.2 集成冲突解决 - 明确的接口版本管理 - 向后兼容原则 - 灰度发布策略 ## 10. 最终建议 1. **分阶段实施**:先让1-2个简单的Agent(如Auth)完成,验证流程 2. **并行开发**:独立模块可以同时进行 3. **频繁集成**:每日进行集成测试 4. **持续优化**:根据实际效果调整prompt和流程 5. **保持灵活**:准备人工介入的方案 通过这些实践,可以最大化利用AI Agent的能力,同时保证代码质量和项目进度。