AI Agent(如 OpenClaw)如何彻底重构测试人员的工作内容
最近一直在思考如何在测试过程中使用openclaw等AI agent工具来提升测试效率。
直接用AI写用例一直是各个大厂关注的重点,各家也有了一定的突破,可以预见在不久的将来,一些通用用例的编写和执行是可以交给AI去完成的。
不过复杂业务场景下的用例编写和执行还是需要人工参与比较好。
这是因为
- AI对复杂业务场景的理解可能不如测试领域的业务专家;
- 测试策略的制定和把控最好需要有经验的测试人员进行介入,否则方向错了,做的越多,错的越多;
- 如果AI在复杂业务场景下的验证工作出了问题,那就找不到人背锅了;
所以我忽然意识到,与其苦苦追求提升测试效率,不如思考一下如何去提升测试人员整体的日常工作效率。
因为毕竟编写用例以及执行用例只是日常工作的一部分。
如果除了这两部分之外的其他杂事和重复工作的完成效率提升了,那么测试人员的整体输出也会有显著的变化。
测试人员的一天
大部分测试人员的典型一天可能是这样的。

早晨启动阶段(9:00–10:30左右)
- 开电脑 → 查看/回复邮件、钉钉/企业微信(经常一早上要回几十条)
- 参加站会/早会/Scrum Daily(10–15分钟):汇报昨天做了什么、今天计划做什么、阻塞困难以及卡点是什么
- 查看Bug管理系统(Jira、禅道、Tapd):自己昨天提的Bug有没有被开发修复/重开/驳回
- 拉取最新构建/提测包,部署或更新测试环境,如果环境被开发玩坏了,还要求助🙏开发进行修复
- 快速过一遍需求变更/新提测单/hotfix说明,评估影响范围
上午核心测试阶段(10:30–12:30 / 13:30–17:00)
最占时间的部分,通常占一天50–70%:
- 执行测试用例(手动为主,自动化为辅)
- 跑冒烟测试/核心路径验证(新版本可能需要)
- 按优先级逐条执行详细用例
- 探索式测试( Exploratory Testing):随便点一点、试试各种组合、测试一下弱网、看看暗黑模式、有多设备就换设备跑一下
- 接口测试(Postman/JMeter/自己写脚本)
- 发现Bug → 复现 → 提Bug单
- 截图/录屏/日志/复现步骤/写清楚预期结果和实际结果
- 做严重程度和优先级的判断(比如P0致命/P1高/P2中/P3低)
- @开发、跟进讨论(经常要语音/会议演示)
- 跑自动化用例(如果有维护了自动化测试用例的话)
- 触发CI/CD pipeline后看下结果
- 分析失败用例的原因,是代码问题,环境问题,还是用例问题
- 修复脚本,ui用例可能要更新locator或者加等待;接口用例就增加字段或者修改已存在的字段名称
- 专项测试(视项目阶段)
- 性能或者压力测试(JMeter/Locust)
- 安全测试(SQL注入/XSS/垂直或水平越权)
- 兼容性/国际化/无障碍
- 回归测试(尤其是大版本后)
下午/傍晚协作 & 收尾阶段(15:00–18:30)
- 参加各种会议(需求评审、缺陷评审、联调会、上线评审、复盘会)
- 与开发/产品/运营对齐(最耗时也最关键)
- 需求不清晰,那么怼产品
- Bug开发不认,那么拉产品一起怼开发
- 上线有风险,各种升级,拉所有人一起评估
- 写/更新测试文档
- 写各种测试报告(日报/周报/版本报告)
- 做测试总结,覆盖率统计,典型bug分析,bug趋势分析,输出质量指标
- 写操作手册或者输出验收的checklist
- 环境维护/数据准备
- 造数、刷库、Mock接口
- 清理脏数据、回收资源
- 学习/工具优化(优秀测试的常态)
- 研究新需求的技术实现,或者参加开发的方案评审
- 学习/优化自动化框架
- 玩OpenClaw/Claude等AI Agent写用例/生成脚本/分析日志(这个比较科幻)
一天结束前(下班前30分钟)
- 汇总当天Bug/测试进度 → 发日报/更新看板
- 确认明天要测的内容、功能是否提测,环境是否ready
- 把未完成的用例/阻塞事项记下来
可以看出典型QA的一天比较零碎,可以工程化的部分其实有限。不过我们仍然可以提炼出一些可以进行自动化的非测试场景。











