python批量生成sql用于创建500个用户

创建500个用户,分别为jmeter001-jmeter500,密码都是123,手动添加不现实,用客户端复制粘贴表数据也要添加很久,因此想批量生成500条插入的sql,如下:

python 复制代码
 start_num = 1
end_num = 500
insert_sql = "INSERT INTO `sys_user`(`user_id`, `username`,  `password`, `email`, `mobile`,  `create_time`,  `emp_no`) VALUES\n"

for i in range(start_num, end_num + 1):
user_id = f'user-id-jmeter{i:03d}-66f5056704684a2fa'
 username = f'jmeter{i:03d}'

 row = f"('{user_id}', '{username}', '123',  '1234@qq.com', '12345', '18312345678', '2024-08-22 11:47:20', 0, '2024-08-22 13:18:26', NULL),\n"
insert_sql += row
 #去掉最后一个逗号
insert_sql = insert_sql.rstrip(',\n') + ';'
print(insert_sql)

打印结果:

INSERT INTO sys_user(user_id, username, password, email, mobile, create_time, emp_no) VALUES ('user-id-jmeter001-66f5056704684a2fa', 'jmeter001', 'jmeter001', '1234@qq.com', '12345', '12345', '2024-08-22 11:47:20', 0, '2024-08-22 13:18:26', NULL),

INSERT INTO sys_user(user_id, username, password, email, mobile, create_time, emp_no) VALUES('user-id-jmeter002-66f5056704684a2fa', 'jmeter002', 'jmeter002', '1234@qq.com', '12345', '12345', '2024-08-22 11:47:20', '2024-08-22 13:18:26', NULL),

...

INSERT INTO sys_user(user_id, username, password, email, mobile, create_time, emp_no) VALUES('user-id-jmeter500-66f5056704684a2fa', 'jmeter500', 'jmeter500', '1234@qq.com', '12345', '12345', '2024-08-22 11:47:20', '2024-08-22 13:18:26', NULL)

相关推荐
酷飞飞10 小时前
Python网络与多任务编程:TCP/UDP实战指南
网络·python·tcp/ip
MarkHard12311 小时前
如何利用redis使用一个滑动窗口限流
数据库·redis·缓存
数字化顾问12 小时前
Python:OpenCV 教程——从传统视觉到深度学习:YOLOv8 与 OpenCV DNN 模块协同实现工业缺陷检测
python
学生信的大叔12 小时前
【Python自动化】Ubuntu24.04配置Selenium并测试
python·selenium·自动化
island131413 小时前
【Redis#10】渐进式遍历 | 数据库管理 | redis_cli | RES
数据库·redis·bootstrap
心想事成的幸运大王13 小时前
Redis的过期策略
数据库·redis·缓存
倔强的石头_13 小时前
CentOS 上安装KingbaseES(ISO包)详细教程
数据库
2401_8979300613 小时前
使用Docker轻松部署Neo4j图数据库
数据库·docker·neo4j
诗句藏于尽头14 小时前
Django模型与数据库表映射的两种方式
数据库·python·django
智数研析社14 小时前
9120 部 TMDb 高分电影数据集 | 7 列全维度指标 (评分 / 热度 / 剧情)+API 权威源 | 电影趋势分析 / 推荐系统 / NLP 建模用
大数据·人工智能·python·深度学习·数据分析·数据集·数据清洗