有时候需要制造一些测试的数据,以mysql官方给的测试库为基础,插入十万,百万或者千万条数据。利用一些函数和存储过程来完成。
官方给的测试库地址:https://github.com/datacharmer/test_db
导入官方的数据库,做了一些简化,留下了部门表,员工表和雇佣表三张表,去掉了外键关联。因为是测试数据,日期的对应关系不具备准确性。
必要的函数
生成随机字符串
RAND():生成0~1之间的随机数
FLOOR:向下整数 (FlOOR(1.2)=1)
CEILING 向上取整 (CEILING(1.2)=2)
substring:截取字符串
concat:字符串连接
CREATE DEFINER=`root`@`localhost` FUNCTION `rand_string`(n INT) RETURNS varchar(255) CHARSET latin1 BEGIN DECLARE chars_str varchar(100) DEFAULT 'ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz'; DECLARE return_str varchar(255) DEFAULT ''; DECLARE i INT DEFAULT 0; WHILE i < n DO SET return_str = concat(return_str,substring(chars_str , FLOOR(1 + RAND()*62 ),1)); SET i = i +1; END WHILE; RETURN return_str; END
查看自定义的所有函数
show function status
测试使用:
select rand_string(5);
生成随机年月日字符串
生成一个指定时间段内的随机日期
SELECT date( from_unixtime( unix_timestamp( '2000-01-01' ) + floor( rand() * ( unix_timestamp( '2020-12-31' ) - unix_timestamp( '2000-01-01' ) + 1 ) ) ));
函数:生成指定时间段内的随机日期
CREATE DEFINER=`root`@`localhost` FUNCTION `rand_date_string`(startDate varchar(255),endDate varchar(255)) RETURNS varchar(255) CHARSET latin1 BEGIN DECLARE return_str varchar(255) DEFAULT ''; SET return_str =date( from_unixtime( unix_timestamp( startDate ) + floor( rand() * ( unix_timestamp( endDate ) - unix_timestamp( startDate ) + 1 ) ) ) ); RETURN return_str; END
测试使用:
select rand_date_string('2000-01-01','2020-12-31'); //结果 2001-09-10
存储过程生成数据
给每个部门插入一百万员工,那么员工表就有九百万的数据。
CREATE DEFINER=`root`@`localhost` PROCEDURE `data`() BEGIN DECLARE i INT DEFAULT 1; DECLARE j INT DEFAULT 0; DECLARE id INT DEFAULT 0; WHILE i < 10 DO WHILE j < 1000000 DO insert into employees_m (emp_no,birth_date,first_name,last_name,gender,hire_date) VALUES( id,rand_date_string('1970-01-01','1997-01-01'),rand_string(5),rand_string(5),'M',NOW()); insert into dept_emp_m (emp_no,dept_no,from_date,to_date) values( id,concat('d00',i),rand_date_string('1990-01-01','2020-12-31'),'2020-12-31'); SET j=j+1; SET id=id+1; END WHILE; SET j = 0; SET i=i+1; END WHILE; END
插入九百万条数据大概用时:4868s
上面的方式插入数据会很慢,可以将数据插入到内存表,就是将表的存储引擎修改为MEMORY这样就会使用内存去存储数据,会比直接插入到INNODB引擎的表中快很多,只不过就是没有持久化,但是速度贼快,插入一千万条数据大概需要时间: 1227.89s
附录
修改表存储引擎
ALTER TABLE dept_emp_m ENGINE=MEMORY;
调整内存表的大小,修改配置文件
[mysqld] max_heap_table_size = 2048M tmp_table_size = 2048M
以上就是MySQL制作具有千万条测试数据的测试库的方法的详细内容,更多关于MySQL 千万条测试数据的资料请关注其它相关文章!
RTX 5090要首发 性能要翻倍!三星展示GDDR7显存
三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。
首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。
据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。
更新动态
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]