test-case-reviewer

英文版: 见技能 test-case-reviewer-en 。

Safety Notice

This listing is imported from skills.sh public index metadata. Review upstream SKILL.md and repository scripts before running.

Copy this and send it to your AI assistant to learn

Install skill "test-case-reviewer" with this command: npx skills add naodeng/awesome-qa-skills/naodeng-awesome-qa-skills-test-case-reviewer

测试用例评审(中文版)

英文版: 见技能 test-case-reviewer-en 。

提示词见本目录 prompts/test-case-reviewer.md 。

何时使用

  • 用户提到「测试用例评审」「test case review」「用例评审」

  • 需要对已有测试用例进行质量评审、缺失场景挖掘与改进建议

  • 触发示例:「请评审以下测试用例」「找出用例中的遗漏与风险」

输出格式选项

本技能默认输出为 Markdown。若需其他格式,请在需求末尾明确说明。

如何使用

  • 打开本目录 prompts/ 下对应提示词文件,复制虚线以下内容。

  • 附加你的需求与上下文(业务流程、环境、约束、验收标准)。

  • 若需非 Markdown 输出,在末尾追加 output-formats.md 中的请求句。

参考文件

  • prompts/test-case-reviewer.md — 测试用例评审提示词

  • output-formats.md — 格式说明

代码示例 | Code Examples

  • 用例评审标准(计划中) - 评审检查清单和标准

常见误区 | Common Pitfalls

  • ❌ 只看表面问题 → ✅ 深入分析覆盖率和质量

  • ❌ 批评而不建议 → ✅ 提供具体改进建议

  • ❌ 忽略可维护性 → ✅ 评估长期维护成本

  • ❌ 缺少优先级 → ✅ 标记问题严重程度

最佳实践 | Best Practices

  1. 评审维度

完整性(Completeness):

  • 需求覆盖率

  • 场景覆盖率

  • 边界值覆盖

  • 异常场景覆盖

清晰度(Clarity):

  • 步骤明确

  • 数据具体

  • 结果可验证

  • 无歧义

可维护性(Maintainability):

  • 用例独立

  • 数据分离

  • 模块化设计

  • 易于更新

效率(Efficiency):

  • 执行时间合理

  • 无冗余步骤

  • 自动化潜力

  • ROI 评估

  1. 评审检查清单

用例评审检查清单

基本信息

  • 用例 ID 唯一
  • 标题清晰
  • 优先级标记
  • 类型标记

前置条件

  • 前置条件完整
  • 前置条件可实现
  • 依赖关系明确

测试步骤

  • 步骤详细具体
  • 步骤可重复
  • 步骤编号清晰
  • 无遗漏步骤

测试数据

  • 数据具体明确
  • 数据可获取
  • 覆盖边界值
  • 包含异常数据

预期结果

  • 结果明确
  • 结果可验证
  • 结果完整
  • 无模糊描述

覆盖率

  • 正常场景
  • 异常场景
  • 边界条件
  • 权限验证
  1. 评审报告模板

测试用例评审报告

评审日期: 2024-02-06 评审人: 张三 用例数量: 50 评审范围: 登录模块

评审总结

  • 总体质量:良好
  • 主要问题:边界值覆盖不足
  • 改进建议:增加异常场景

问题统计

严重程度数量占比
Critical24%
High510%
Medium1020%
Low816%

详细问题

Critical 问题

  1. TC-001: 缺少 SQL 注入测试
    • 影响: 安全风险
    • 建议: 添加特殊字符测试

High 问题

  1. TC-005: 边界值测试不完整
    • 影响: 可能遗漏缺陷
    • 建议: 补充边界值用例

缺失场景

  • 并发登录测试
  • Session 超时测试
  • 密码复杂度验证

改进建议

  1. 增加边界值测试
  2. 补充异常场景
  3. 优化用例描述
  4. 添加自动化标记

故障排除 | Troubleshooting

问题1:不知道如何评审

解决方案: 使用评审检查清单,逐项检查。

问题2:评审效率低

解决方案:

  • 使用评审工具

  • 批量评审相似用例

  • 重点评审高优先级用例

相关技能: test-case-writing、test-strategy、requirements-analysis。

目标受众

  • 在真实项目中执行该测试域工作的 QA 与开发人员

  • 需要结构化、可复用测试交付物的测试负责人

  • 需要快速生成可落地测试产出的 AI 使用者

不适用场景

  • 无测试范围上下文的纯线上应急处置

  • 需要法律/合规最终裁定但缺少专家复核的决策

  • 缺少最小输入(范围、环境、期望行为)的请求

关键成功因素

  • 先明确范围、环境与验收标准,再生成测试内容

  • 生成结果必须结合真实系统约束做二次校验

  • 保持产物可追踪(需求 -> 测试点 -> 缺陷 -> 决策)

输出模板与解析脚本

  • 模板目录:output-templates/

  • template-word.md (Word 友好结构)

  • template-excel.tsv (Excel 可直接粘贴)

  • template-xmind.md (XMind 结构化大纲)

  • template-json.json

  • template-csv.csv

  • template-markdown.md

  • 解析脚本目录:scripts/

  • 解析通用:parse_output_formats.py

  • 解析按格式:parse_word.py 、parse_excel.py 、parse_xmind.py 、parse_json.py 、parse_csv.py 、parse_markdown.py

  • 转换通用:convert_output_formats.py

  • 转换按格式:convert_to_word.py 、convert_to_excel.py 、convert_to_xmind.py 、convert_to_json.py 、convert_to_csv.py 、convert_to_markdown.py

  • 批量转换:batch_convert_templates.py (批量输出到 artifacts/ )

示例:

python3 scripts/parse_json.py output-templates/template-json.json python3 scripts/parse_markdown.py output-templates/template-markdown.md python3 scripts/convert_to_json.py output-templates/template-markdown.md python3 scripts/convert_output_formats.py output-templates/template-json.json --to csv python3 scripts/batch_convert_templates.py --skip-same

Source Transparency

This detail page is rendered from real SKILL.md content. Trust labels are metadata-based hints, not a safety guarantee.

Related Skills

Related by shared tags or category signals.

General

test-case-writing

No summary provided by upstream source.

Repository SourceNeeds Review
General

test-reporting

No summary provided by upstream source.

Repository SourceNeeds Review
General

api-testing

No summary provided by upstream source.

Repository SourceNeeds Review
General

performance-testing

No summary provided by upstream source.

Repository SourceNeeds Review