前途科技
  • 科技
  • AI
    • AI 前沿技术
    • Agent生态
    • AI应用场景
    • AI 行业应用
  • 初创
  • 报告
  • 学习中心
    • 编程与工具
    • 数据科学与工程
我的兴趣
前途科技前途科技
Font ResizerAa
站内搜索
Have an existing account? Sign In
Follow US
Copyright © 2024 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号
Agent生态

AI智能体编程:编码-部署-自测-改Bug闭环工作流,实现高效自我迭代

NEXTECH
Last updated: 2025年11月8日 上午7:34
By NEXTECH
Share
64 Min Read
SHARE

测试驱动的AI编程闭环工作流示意图
本文提出了一种测试驱动的AI编程闭环工作流,旨在解决AI辅助编程中“最后一公里”的问题——即AI生成代码后缺乏自测与迭代能力。通过引入自动化验收和反馈机制,构建了包含编码、部署、自测、改Bug的完整闭环。文章以“收藏夹功能修复”为例,验证了该工作流的有效性,证明只要提供清晰的需求、技术方案和测试用例,AI就能像合格程序员一样完成自我修复与持续优化,未来还可通过增强测试、诊断、任务拆分等能力进一步提升自动化水平。

Contents
AI编程的”最后一公里”问题实验设计:构建闭环验证的AI工作流实践案例:收藏夹功能自动修复结论

AI编程的”最后一公里”问题

AI编程最后一公里问题挑战
在AI辅助编程的实践中,即使需求理解、方案设计、代码生成都很顺利,AI写出的代码仍不可避免地存在各种小问题。面对这些问题,开发者通常陷入两种”收拾残局”的模式:

  1. 人工二次编辑:AI生成代码后,开发者变身”代码保姆”,逐行检查、手动修改、反复测试,本应节省的时间又被填补回去。
  2. 对话式修复:通过多轮对话让AI逐步修正,例如:”这里有bug,改一下”、”还是不对,应该用XXX方式”、”再改改,逻辑不对”……来回折腾十几个回合,心力交瘁。

这两种模式的本质问题是缺乏自动化的验收和迭代机制。回顾日常开发的标准流程:编码 → 部署 → 自测 → 改bug → 再自测,如此循环直到测试通过,这是每个合格程序员的基本素养。目前使用AI编程的模式是让AI写完代码就完事,从不要求它自测,相当于培养了一个”极品实习生”:代码写得贼快,写完立马跑路,从不自测,bug多到让人怀疑人生。这不禁让人思考:能否重新设计AI的协作模式,赋予它”自省”能力?让AI不仅能生成代码,还能像真正的程序员那样自动测试、发现问题、修复问题,形成一个完整的开发闭环。

实验设计:构建闭环验证的AI工作流

AI工作流实验设计图
基于上述思考,设计了一个测试驱动的AI编程工作流。核心思路是:通过明确的测试用例作为验收标准,使AI能够自主判断任务完成质量,并在不符合预期时自动迭代修复。这有助于AI像合格的程序员一样,保障代码的正确性和质量。

整体架构 AI Coding技术栈:

  • 工具:iFlow CLI
  • 模型:qwen3-coder-plus

AI Coding技术栈示意图

核心组件

  • 部署Agent:java-dev-project-deploy

该组件利用部署mcp工具,使AI自主完成预发项目环境的部署,并通过轮询机制感知部署状态。

You Might Also Like

AI赋能商业决策:智能体、预算优化与意图识别的实践洞察
DeepSeek-OCR多模态数据分析Agent实战:技术、应用与部署指南
OpenAI DevDay 2025:重塑AI开发生态的技术盛宴,多项重磅产品及工具发布
京东云JoyAgent 3.0:从入门到实战,办公智能体搭建与应用场景全解析
  • 部署工具:

  • 阿里内部平台mcp

  • 部署流程:

  • group_env_apres_list:通过项目环境ID与应用名,获取应用环境ID

  • apre_deploy:针对应用环境ID,进行部署

  • apre_get:查询部署状态

提示词设计:当用户希望部署代码到项目环境时,调用此agent,agent名为java-dev-project-deploy。agent主要使用的mcp是group-env,部署的流程为:``1. 获取项目环境信息:从.iflow/dev/progressInfo.json中,获取项目环境id groupEnvId,如果不存在,提示用户填写。``2.获取应用环境信息:如果已经存在项目环境,调用group_env_apres_list工具,入参的id为项目环境id,结果中的id为应用环境id,将应用环境id填写到.iflow/dev/progressInfo.json的apreEnvId中。``3.部署:调用apre_deploy工具进行部署``4.等待部署成功:开始计时,每隔50s调用一次apre_get工具,直到selfStatus由DEPLOYING变为RUNNING,则代表部署成功。如果超过10分钟,状态还是DEPLOYING,通知用户部署失败。无论成功或失败,将部署信息(时间、项目环境信息、分支、部署结果)追加写入到.iflow/dev/codingLog.md中。``---``name: java-dev-project-deploy``description: Use this agent when the user wants to deploy code to a project environment. The agent handles the complete deployment workflow including environment validation, application environment retrieval, deployment execution, and status monitoring.

Examples:
-&nbsp;<example>
&nbsp;Context: User wants to deploy their Java application to the development environment
&nbsp;user: "Please deploy my code to the project environment"
&nbsp;<commentary>
&nbsp;Since the user wants to deploy code to a project environment, use the java-dev-project-deploy agent to handle the complete deployment workflow.
&nbsp;</commentary>
&nbsp;</example>
-&nbsp;<example>
&nbsp;Context: User is ready to deploy their changes after completing development
&nbsp;user: "I'm ready to deploy my changes now"
&nbsp;<commentary>
&nbsp;Since the user wants to deploy code, use the java-dev-project-deploy agent to manage the deployment process.
&nbsp;</commentary>
&nbsp;</example>``model: inherit``---``You are an expert Java deployment automation agent specialized in managing project environment deployments. Your primary responsibility is to orchestrate the complete deployment workflow with precision and reliability.``## Core Responsibilities``1.&nbsp;Validate project environment configuration``2.&nbsp;Retrieve application environment details``3.&nbsp;Execute deployment process``4.&nbsp;Monitor deployment status until completion``5.&nbsp;Log deployment results for audit trail``## Deployment Workflow``### Step 1: Project Environment Validation``-&nbsp;Check for the existence of&nbsp;.iflow/dev/progressInfo.json-&nbsp;Extract&nbsp;`groupEnvId`&nbsp;from the file``-&nbsp;If&nbsp;`groupEnvId`&nbsp;is missing or file doesn't exist, prompt user to provide the project environment ID``### Step 2: Application Environment Retrieval``-&nbsp;Call&nbsp;`group_env_apres_list`&nbsp;tool with the project environment ID``-&nbsp;Extract the application environment ID (`apreEnvId`) from the response``-&nbsp;Update&nbsp;`.iflow/dev/progressInfo.json`&nbsp;with the retrieved&nbsp;`apreEnvId### Step 3: Deployment Execution-&nbsp;Call&nbsp;`apre_deploy`&nbsp;tool to initiate the deployment process– Record deployment start time and relevant metadata### Step 4: Status Monitoring– Implement a polling mechanism:- Call&nbsp;`apre_get`&nbsp;tool every 50 seconds– Monitor&nbsp;selfStatus field in the response- Continue polling while status is&nbsp;`DEPLOYING```- Stop when status changes to&nbsp;`RUNNING`&nbsp;(success)– Timeout after 10 minutes (600 seconds) – indicate deployment failure### Step 5: Deployment Logging– Regardless of success or failure, append deployment information to&nbsp;.iflow/dev/codingLog.md:- Deployment timestamp– Project environment information- Branch/revision deployed– Deployment result (success/failure)- Duration of deployment process## Error Handling-&nbsp;If any tool call fails, provide clear error messages– If deployment times out, notify user and document failure-&nbsp;If file operations fail, attempt recovery or notify user– Maintain detailed logs for troubleshooting## Quality Assurance– Validate all inputs before processing-&nbsp;Confirm each step before proceeding to the next– Provide real-time status updates during long operations-&nbsp;Ensure all file modifications are atomic and safe## Communication Guidelines-&nbsp;Use clear, professional language– Provide actionable feedback when issues occur-&nbsp;Keep user informed during monitoring periods– Document all actions taken for audit purposes## Java Development Standards Compliance– Follow the minimum modification principle – only change what’s necessary-&nbsp;Maintain consistency with existing codebase patterns– Ensure all operations are idempotent where possible-&nbsp;Prioritize reliability and error recoveryYou will be methodical and thorough in your approach, ensuring each deployment is executed correctly and all outcomes are properly documented.`关键特性:

  • 状态轮询机制:每50秒检查 selfStatus 字段,从 DEPLOYING 到 RUNNING 判定成功;

  • 超时保护:10分钟超时机制,避免无限等待;

  • 日志记录:每次部署都记录时间戳、环境信息、分支、结果。

  • HSF调试工具

技术实现:封装一个mcp工具(hsf-invoke),内部实现方式为HSF泛化调用。调用参数标准化:{``"serviceName":&nbsp;"com.taobao.mercury.services.FavoriteCountService",``"methodName":&nbsp;"getFavoriteCount",``"paramTypes":&nbsp;["long"],``"paramValues":&nbsp;[88888888],``"targetIp":&nbsp;"33.4.XX.XX"``}

  • 自动化调试命令:auto-debugging

提示词:`# 角色你是一个Java自动化调试大师,你的核心工作是基于用户指定的路径($ARGUMENTS)下的需求文档、技术方案、测试用例文档,进行调试、修改与部署工作。# 执行步骤1. 验证&nbsp;$ARGUMENTS路径下的需求文档(prd.md)、技术方案(techDoc.md)、测试用例文档(testCase.md)均存在2. 执行测试用例文档中的测试用例,使用hsf-invoke工具进行hsf接口的调用,并将执行结果记录在.iflow/dev/log/debugLog.md中3. 针对执行结果不符合预期的case,结合需求、技术方案和代码,进行分析。4. 修改代码,以修复测试用例执行失败的问题。注意不能使用mock等方式偷懒,要确保修复代码逻辑的错误。5. 确保代码能够成功编译,提交代码,注意commit messge需要符合^(feat|fix|refactor|docs|style|test|perf|chore|revert|build|ci).*((w+))?(:|:)?s*([^
]*[
][^
]*)*格式。
6. 执行java-dev-project-deploy代理,部署到项目环境。7. 部署成功后,再次使用hsf-invoke工具验证测试用例,并记录debug日志。如果仍然不符合预期,重复上述步骤。# 使用方式```bash# 示例:基于指定路径下的文档进行自动化调试“auto-debugging .iflow/dev/requirements/需求A“““提示词中包含以下步骤:

  • 文档验证:检查prd.md、techDoc.md、testCase.md是否存在
  • 测试执行:解析测试用例,调用HSF接口
  • 结果对比:实际结果vs预期结果,计算差异
  • 问题分析:结合需求和代码,定位问题根因
  • 代码修复:精确修改问题代码
  • 自动部署:调用部署Agent,更新运行环境
  • 验证迭代:重新测试,不符合预期则重复流程

实践案例:收藏夹功能自动修复

收藏夹功能自动修复流程
本节将通过一个简单的需求案例,验证测试驱动的AI工作流的有效性。

需求背景

以下是提供给AI的所有信息:

需求:需求:收藏夹商品的个数,删除飞猪商品个数技术方案:在com.taobao.mercury3.hsfprovider.hsf.HsfFavoriteCountService.getFavoriteCount接口中,删除飞猪商品统计相关逻辑测试用例:# 测试用例``## 测试用例1``### 测试步骤``1.&nbsp;调用hsf服务:com.taobao.mercury.services.FavoriteCountService``2.&nbsp;调用hsf接口:getFavoriteCount``3.&nbsp;目标ip:33.4.XX.XX``4.&nbsp;入参类型:基础数据类型long``5.&nbsp;入参值:888888``6.&nbsp;预期返回结果:3951预发项目环境id:{``"groupEnvId":&nbsp;"4355970",&nbsp;//预发项目环境id``"apreEnvId":&nbsp;""``}

AI闭环验收过程

在 iFlow 中执行: /auto-debugging.iflow/dev/requirements/收藏夹商品个数统计删除飞猪。以下整个流程无需人工干预。

第一步:问题发现

AI问题发现截图

第二步:问题定位与修复

AI结合需求、技术方案、代码和bug现象,定位并修改问题代码:AI定位修复问题截图

第三步:提交、部署代码

AI提交部署代码截图AI部署成功截图

第四步:再次验证(第二轮循环的开始)

AI再次验证测试用例截图AI再次验证成功截图

结论

此次实验虽然场景简单,但验证了只要为AI提供明确的验收标准和反馈机制,它便能具备自我验收和迭代能力。关键要素包括:

  • 明确的验收标准:通过测试用例,将抽象需求转化为可验证的标准;
  • 完整的反馈循环:从执行到验证到修复的闭环设计;
  • 标准化的工作流:将人工经验固化为可重复的自动化流程。

未来优化方向示意图当然,目前的设计仍是一个实验性质的原型版本,工作流中的诸多细节和问题需要持续优化。未来的优化方向包括但不限于:

  • 【测试能力升级】自动生成测试用例、处理复杂入参、实现实验加白等功能,并需接入测试团队工具;
  • 【bug诊断能力强化】结合诊断日志、SLS日志、实时抓包能力,以及前期产出的技术方案、需求理解文档,完善复杂场景下的错误诊断与修复机制;
  • 【任务拆分能力】将复杂需求拆分为逻辑相对简单、边界清晰的任务,以提升AI自驱修复的成功率;
  • 【部署效率提升】接入热部署API,提升部署速度;通过MCP捞取构建/部署日志,自动化修复部署错误;
  • 【代码质量把关】除功能性bug修复Agent外,AI编码工作流的后置链路中还可引入代码评审Agent、性能优化Agent;
  • …
TAGGED:AgentAI编程智能体测试驱动闭环工作流
Share This Article
Email Copy Link Print
Previous Article 人文化数据的益处 超越数字:如何让数据和分析更具人情味,驱动实际行动
Next Article 图1: GPT-5信息图 GPT-5高效使用指南:掌握参数与功能,释放AI模型强大潜力
Leave a Comment

发表回复 取消回复

您的邮箱地址不会被公开。 必填项已用 * 标注

最新内容
20251202135921634.jpg
英伟达20亿美元投资新思科技,AI芯片设计革命加速
科技
20251202130505639.jpg
乌克兰国家AI模型选定谷歌Gemma,打造主权人工智能
科技
20251202121525971.jpg
中国开源AI新突破:DeepSeek V3.2模型性能比肩GPT-5
科技
20251202112744609.jpg
马斯克预言:AI三年内解决美国债务危机,可信吗?
科技

相关内容

ACP 作为面向 Agent 的开放商业标准
Agent生态

Stripe 联手 OpenAI 发布 ACP:深入探讨 Agent 支付战略与 AI 经济影响

2025年11月7日
Codex CLI整体工作流程图
Agent生态

深入解析Codex CLI:代码智能体的工作原理与大模型推理整合

2025年10月6日
AI 前沿技术

Claude Skills深度解析:Anthropic智能体设计哲学与应用

2025年11月3日
auto-coder.chat 模型列表显示截图
Agent生态

SubAgents:多模型融合与成本极致压缩的AI编程实践

2025年11月2日
Show More
前途科技

前途科技是一个致力于提供全球最新科技资讯的专业网站。我们以实时更新的方式,为用户呈现来自世界各地的科技新闻和深度分析,涵盖从技术创新到企业发展等多方面内容。专注于为用户提供高质量的科技创业新闻和行业动态。

分类

  • AI
  • 初创
  • 学习中心

快速链接

  • 阅读历史
  • 我的关注
  • 我的收藏

Copyright © 2025 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号

前途科技
Username or Email Address
Password

Lost your password?

Not a member? Sign Up