阿里技术 10月29日 10:10
AI赋能天猫技术:智能生成测试用例,提升效率与质量
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

为应对电商行业快速迭代和成本压力,天猫技术引入AI技术优化测试流程。通过“需求规范化 + Prompt工程 + 知识库RAG + 平台化集成”的策略,AI能够辅助生成测试用例,缩短用例编写时间,提升覆盖率。文章详细介绍了Prompt工程、高质量知识库构建、需求规范化以及平台化集成的具体方案和应用效果,并展望了AI在测试全流程自动化中的未来潜力,旨在推动QA从体力劳动向脑力劳动转型。

💡 AI驱动的测试用例生成:通过精细化的Prompt设计和端到端的流程优化,AI能够根据需求自动生成高质量的测试用例,显著缩短用例编写时间(如导购场域、营销解决方案领域提效75%),并提升用例的可读性和可维护性。

📚 高质量知识库与RAG技术:构建包含基线用例、特殊场景、业务背景和资损场景的结构化知识库,并结合检索增强生成(RAG)技术,动态检索信息,以提高AI生成用例的相关性、准确性和覆盖率。同时,探索AI Agent自动构建和重构知识库,降低人工成本。

📝 需求规范化是关键:认识到PRD质量对AI生成用例覆盖率的重大影响,通过与产品团队合作推广标准化PRD模板,规范需求表达,使其更易于AI理解和处理,从而显著提升AI生成用例的采纳率和整体设计完善度。

🚀 平台化集成与Agent赋能:将AI用例生成能力集成至用例管理平台,提供可视化入口,并支持对话式用例生成(Test Copilot)。同时,AI Agent被用于知识库构建、PRD补全等任务,进一步降低人工成本,提升效率和质量,为QA角色带来转型契机。

珞兮 2025-10-29 08:30 浙江

这是2025年的第121篇文章

( 本文阅读时间:15分钟 )

01

背景

1.1 业界分析与思考

随着大模型的不断演进,测试行业基于AI也在做不同程度的探索,在agent智能体生成方面,基本使用的是prompt+RAG的方式,构建特定业务的需求分析/测试用例生成/数据构造智能体等。下述是以用例生成为例的一些业界方案和效果:

参考文章:QECon大会以及外部分享

对业界能力的分析,基本都是基于prompt+RAG做能力拓展,没有涉及对模型的微调。过程中存在着对需求解析,测试分析过程,知识库建设的差异化处理。基于对天猫技术业务的理解和发展趋势的判断,我们需要针对天猫技术不同行业特性,做用例生成差异化的处理,同时针对强依赖的输入产物(prd)做一定的规范化处理。

2.2 天猫行业特性

在瞬息万变的电商行业,业务迭代速度快,对产品质量要求日益提高。测试团队面临着以下挑战:

当然在测试用例编写阶段,也存在着如下痛点:

同时经分析,现有业务特性差异较大,主要划分成5类业务类型,分别为:营销解决方案,导购场域,交易结算,多部门协作,中后台,如何针对不同业务类型做用例生成的适配和应用,也是面临的难题之一。

为应对上述挑战,我们的核心目标是通过AI技术,实现测试用例的智能化生成,并构建一个符合行业特性的测试流。

02

实施策略

2.1 用例生成思路

对于QA来说,我们需要通过一系列手段来保障业务的质量,同时探索业务的天花板,这一系列手段包括:围绕业务迭代的需求交付,需求理解->风险评估->用例设计->用例执行->缺陷追踪->集成/回归->发版/上线->反馈跟踪。

其中从用例设计到最终的回归约占据了QA 70%的时间,在当下对于质量要求高,版本节奏快,人力成本缩减的前提下,急需借助大模型来辅助测试设计,建设相关的智能化工具。整体思路如下:

2.2 具体实施方案

围绕AI用例生成的目标,制定了“需求规范化 + Prompt工程 + 知识库RAG + 平台化集成”的总体策略,并辅以Agent能力建设,提升日常知识库建设人效。

1.Prompt工程与流程优化通过精细化的Prompt设计,结合上下文信息,引导LLM生成高质量的测试用例。搭建端到端的用例生成Flow,将AI能力集成到现有工作流中。

2.高质量知识库构建系统性地沉淀业务背景、基线用例、特殊场景(踩坑点)、资损场景等,并结合RAG技术,提升AI生成用例的相关性和准确性。

3.需求规范化推动PRD规范化,提供标准化模板,提升需求输入的质量,从而提高AI生成用例的稳定性和覆盖率。

4.AI Agent赋能过程中迭代专门的AI Agent,用于知识库构建、PRD补全、知识库检查等,进一步降低人工成本,提升效率和质量。

5.平台化集成将AI能力集成至用例管理平台,实现平台化操作。

整体流程如下:

2.2.1 Prompt工程与流程为了降低不同人员需求理解用例设计差异性,提升用例可读性和后期维护成本,当前prompt严格遵循该策略,包含:

1.基于前置功能用例和需求推导非功能用例,包含定义异常,资损等设计原则和具体案例,通过RAG和prompt的方式来增强用例设计的确定性

2.针对较复杂需求,可以自主拆分成业务模块,针对单模块通过test copilot进行对话式生成,并可以通过对话进行用例的修改。

3.支持各行业灵活定制行业特性和行业示例。

4.搭建从需求输入到用例输出的端到端AI用例生成Flow,根据行业标签,路由至行业知识库/prompt/行业示例等。

2.2.2 高质量知识库构建针对如何提升RAG召回的精确性,我们确定了知识库建设的标准,通过知识库的动态检索,提升用例的覆盖率和采纳率,整体思路如下:

RAG部分详细内容如下:

1.知识库范围

a.测试用例:基线用例,特殊用例(踩坑点)等。

b.业务背景:领域术语、业务流程、用户故事等。

c.资损场景:触发条件、影响范围、测试重点等。

2.数据格式(结构化存储文本(纯文本,markdown,JSON格式),表格。

3.数据检索包括分块策略,召回策略、索引方法。

4.知识库维护数据清洗、去重,更新机制。

针对沉淀的内容,可通过业务域->功能模块->功能点进行拆分,利用关键词来召回最小单元的功能点,示例如下:

为了节省人工构建知识库的成本,还探索了知识库自动构建agent,可基于原始技术文档可以快速构建知识库,提取出业务术语,业务流程,核心功能点等。

对于当前切分不合理的知识库,通过agent进行重构,可有效提升知识库的切片效果。如下示例所示,原知识库单个功能描述被切分至多个无效片段——>而通过agent进行构建后,可对全文信息进行整合总结,单个片段内容更完整和结构化。

2.2.3 需求规范化通过多轮需求测试,发现prd质量对用例生成的覆盖率影响较大,通过与PD合作,定义和推广标准化PRD模板,来进一步提升用例生成的稳定性。当前已在天猫APP多个业务域试点,并完成相关实践,通过标准化产出的prd测试结果如下:

需求规范化模板

规范表达,可被计算处理

规范化需求示例

AI生成用例

2.2.4 平台化集成
当前用例生成已集成至用例管理平台,提供可视化操作入口。支持Ai-Test和Test Copilot 两种形式。结合Test Copilot等工具,支持复杂需求模块化拆解与对话式用例生成。当前天猫技术质量也继续探索AI在数据构造、用例执行等更方面的应用,形成全流程自动化。

03

应用效果

1. 采纳率:在偏向于C端表现部分(如导购、详情)表现较好,采纳率可以达到85%以上,但在B端(如资金、供应链)表现一般,采纳率普遍不到40%。

2. 实际提效:在导购场域、营销解决方案领域中,中小型需求的用例编写时间从2小时缩短至0.5小时(节省75%)。

04

展望

目前在实践中主要问题还是集中在PRD质量不高;需求解析中对视觉稿,交互稿等无法支持,以及需求过于复杂的状态下,使用效果不佳。后续计划在AI能力深入,AI全流程自动化继续尝试。

在未来,能够实现AI智能自主运行,独立完成需求分析,用例生成,脚本构造和执行,上报需求缺陷,跟进质量闭环等流程。基于人工智能的理解,记忆,规划等,为QA角色带来新的转变。

我们需要从“体力劳动型”测试向“脑力劳动型”测试转型,将繁琐重复的工作交给AI,让QA聚焦于更具挑战性的领域:业务风险识别、测试策略制定、探索性测试以及用户体验深挖。未来在一定程度跳出覆盖率-成本-速度的不可能三角,实现更高的覆盖率,更快的速度和更低的成本。

欢迎留言一起参与讨论~

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 测试 大模型 天猫技术 用例生成 RAG Prompt工程 效率提升 电商测试 AI Testing Large Models Tmall Tech Case Generation RAG Prompt Engineering Efficiency Improvement E-commerce Testing
相关文章