利用Excel支持JUnit参数化测试

在JUnit里面,可以使用CsvFileSource读取csv文件进行参数化测试,可是CSV文件不支持格式,编辑颇为麻烦,尤其是多次编辑,因此自然想到是否可以使用Excel文件,可以有各种格式,支持各类数据。

最新开源组件ExcelBDD提供了此功能,其maven导入代码如下

XML 复制代码
<dependency>
  <groupId>com.excelbdd</groupId>
  <artifactId>excelbdd-java</artifactId>
  <version>1.4.1</version>
</dependency>

对于如下样子的Excel里面表格

参数化测试代码如下

java 复制代码
import java.util.Map;
import org.junit.jupiter.params.ParameterizedTest;

import com.excelbdd.ExcelFileSource;
import com.excelbdd.TestWizard;
import static org.junit.jupiter.api.Assertions.*;
    ......
    @ParameterizedTest
	@ExcelFileSource(file = "excelbdd/DataTable.xlsx", sheet = "DataTable2")
	void testGetDateFromExcelTable(Map<String, String> parameterMap) {
		TestWizard w = new TestWizard(parameterMap);
		assertEquals("Value1", w.get("Header01").substring(0, 6));
		assertEquals("Value2", w.get("Header02").substring(0, 6));
//      ......
		assertEquals("Value8", w.get("Header08").substring(0, 6));
//		real test automation implementation
	}

@ExcelFileSource有五个参数:

file 文件名,缺省以resources为相对基准

brotherFolder 兄弟路径,改变相对基准到此路径的上级,一般不需要用

sheet Excel里面Sheet名称,缺省是第1个

headerRow 标题列,缺省第1行,一般不需要用

startColumn 数据区第1列在哪里,缺省是从第1列开始自动搜索数据区,一般不需要用

ExcelBDD的功能不止于使用Excel作为参数化测试来源,更加主要的功能是支持BDD,也是SBE。

参见ExcelBDD Python指南https://blog.csdn.net/zhangmike/article/details/133815589?spm=1001.2014.3001.5501

ExcelBDD Guideline By Java Examplehttps://blog.csdn.net/zhangmike/article/details/118197580

相关推荐
金銀銅鐵5 小时前
浅解 JUnit 4 第十篇:方法上的 @Ignore 注解
junit·单元测试
爱可生开源社区1 天前
2026 年,优秀的 DBA 需要具备哪些素质?
数据库·人工智能·dba
随逸1771 天前
《从零搭建NestJS项目》
数据库·typescript
加号32 天前
windows系统下mysql多源数据库同步部署
数据库·windows·mysql
シ風箏2 天前
MySQL【部署 04】Docker部署 MySQL8.0.32 版本(网盘镜像及启动命令分享)
数据库·mysql·docker
李慕婉学姐2 天前
Springboot智慧社区系统设计与开发6n99s526(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。
数据库·spring boot·后端
百锦再2 天前
Django实现接口token检测的实现方案
数据库·python·django·sqlite·flask·fastapi·pip
tryCbest2 天前
数据库SQL学习
数据库·sql
jnrjian2 天前
ORA-01017 查找机器名 用户名 以及library cache lock 参数含义
数据库·oracle
十月南城2 天前
数据湖技术对比——Iceberg、Hudi、Delta的表格格式与维护策略
大数据·数据库·数据仓库·hive·hadoop·spark