位置: IT常识 - 正文

面试官:一千万的数据,你是怎么查询的(面试官:一千万是真的吗)

编辑:rootadmin
面试官:一千万的数据,你是怎么查询的 面试官:一千万的数据,你是怎么查询的?

推荐整理分享面试官:一千万的数据,你是怎么查询的(面试官:一千万是真的吗),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:价值千万的面试,应聘一千万的那个人怎么样了,面试者要求一千万,面试官:一千万是真的吗,面试者要求一千万,面试官:一千万是真的吗,面试者要求一千万,面试官:一千万的数据,你是怎么查询的?,内容如对您有帮助,希望把文章链接给更多的朋友!

前言面试官:来说说,一千万的数据,你是怎么查询的?B哥:直接分页查询,使用limit分页。面试官:有实操过吗?B哥:肯定有呀

此刻献上一首《凉凉》

也许有些人没遇过上千万数据量的表,也不清楚查询上千万数据量的时候会发生什么。

今天就来带大家实操一下,这次是基于MySQL 5.7.26做测试

准备数据

没有一千万的数据怎么办?

创建呗

代码创建一千万?那是不可能的,太慢了,可能真的要跑一天。可以采用数据库脚本执行速度快很多。

创建表CREATE TABLE `user_operation_log` ( `id` int(11) NOT NULL AUTO_INCREMENT, `user_id` varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `ip` varchar(20) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `op_data` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr1` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr2` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr3` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr4` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr5` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr6` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr7` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr8` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr9` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr10` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr11` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, `attr12` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL, PRIMARY KEY (`id`) USING BTREE) ENGINE = InnoDB AUTO_INCREMENT = 1 CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;创建数据脚本

采用批量插入,效率会快很多,而且每1000条数就commit,数据量太大,也会导致批量插入效率慢

DELIMITER ;;CREATE PROCEDURE batch_insert_log()BEGIN DECLARE i INT DEFAULT 1; DECLARE userId INT DEFAULT 10000000; set @execSql = 'INSERT INTO `test`.`user_operation_log`(`user_id`, `ip`, `op_data`, `attr1`, `attr2`, `attr3`, `attr4`, `attr5`, `attr6`, `attr7`, `attr8`, `attr9`, `attr10`, `attr11`, `attr12`) VALUES'; set @execData = ''; WHILE i<=10000000 DO set @attr = "'测试很长很长很长很长很长很长很长很长很长很长很长很长很长很长很长很长很长的属性'"; set @execData = concat(@execData, "(", userId + i, ", '10.0.69.175', '用户登录操作'", ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ")"); if i % 1000 = 0 then set @stmtSql = concat(@execSql, @execData,";"); prepare stmt from @stmtSql; execute stmt; DEALLOCATE prepare stmt; commit; set @execData = ""; else set @execData = concat(@execData, ","); end if; SET i=i+1; END WHILE;END;;DELIMITER ;开始测试

哥的电脑配置比较低:win10 标压渣渣i5 读写约500MB的SSD

由于配置低,本次测试只准备了3148000条数据,占用了磁盘5G(还没建索引的情况下),跑了38min,电脑配置好的同学,可以插入多点数据测试

SELECT count(1) FROM `user_operation_log`

返回结果:3148000

三次查询时间分别为:

14060 ms13755 ms13447 ms普通分页查询

MySQL 支持 LIMIT 语句来选取指定的条数数据, Oracle 可以使用 ROWNUM 来选取。

MySQL分页查询语法如下:

SELECT * FROM table LIMIT [offset,] rows | rows OFFSET offset第一个参数指定第一个返回记录行的偏移量第二个参数指定返回记录行的最大数目

下面我们开始测试查询结果:

SELECT * FROM `user_operation_log` LIMIT 10000, 10

查询3次时间分别为:

59 ms49 ms50 ms

这样看起来速度还行,不过是本地数据库,速度自然快点。

换个角度来测试

相同偏移量,不同数据量SELECT * FROM `user_operation_log` LIMIT 10000, 10SELECT * FROM `user_operation_log` LIMIT 10000, 100SELECT * FROM `user_operation_log` LIMIT 10000, 1000SELECT * FROM `user_operation_log` LIMIT 10000, 10000SELECT * FROM `user_operation_log` LIMIT 10000, 100000SELECT * FROM `user_operation_log` LIMIT 10000, 1000000

查询时间如下:

从上面结果可以得出结束:数据量越大,花费时间越长

相同数据量,不同偏移量SELECT * FROM `user_operation_log` LIMIT 100, 100SELECT * FROM `user_operation_log` LIMIT 1000, 100SELECT * FROM `user_operation_log` LIMIT 10000, 100SELECT * FROM `user_operation_log` LIMIT 100000, 100SELECT * FROM `user_operation_log` LIMIT 1000000, 100面试官:一千万的数据,你是怎么查询的(面试官:一千万是真的吗)

从上面结果可以得出结束:偏移量越大,花费时间越长

SELECT * FROM `user_operation_log` LIMIT 100, 100SELECT id, attr FROM `user_operation_log` LIMIT 100, 100如何优化

既然我们经过上面一番的折腾,也得出了结论,针对上面两个问题:偏移大、数据量大,我们分别着手优化

优化偏移量大问题采用子查询方式

我们可以先定位偏移位置的 id,然后再查询数据

SELECT * FROM `user_operation_log` LIMIT 1000000, 10SELECT id FROM `user_operation_log`LIMIT 1000000, 1SELECT * FROM `user_operation_log` WHERE id >= (SELECT id FROM `user_operation_log` LIMIT 1000000, 1) LIMIT 10

查询结果如下:

从上面结果得出结论:

第一条花费的时间最大,第三条比第一条稍微好点子查询使用索引速度更快

缺点:只适用于id递增的情况

id非递增的情况可以使用以下写法,但这种缺点是分页查询只能放在子查询里面

注意:某些 mysql 版本不支持在 in 子句中使用 limit,所以采用了多个嵌套select

SELECT * FROM `user_operation_log` WHERE id IN (SELECT t.id FROM (SELECT id FROM `user_operation_log`LIMIT 1000000, 10) AS t)采用 id 限定方式

这种方法要求更高些,id必须是连续递增,而且还得计算id的范围,然后使用 between,sql如下

SELECT * FROM `user_operation_log` WHERE id between 1000000 AND 1000100 LIMIT 100SELECT * FROM `user_operation_log` WHERE id >= 1000000 LIMIT 100

查询结果如下:

从结果可以看出这种方式非常快

注意:这里的 LIMIT 是限制了条数,没有采用偏移量

优化数据量大问题

返回结果的数据量也会直接影响速度

SELECT * FROM `user_operation_log` LIMIT 1, 1000000SELECT id FROM `user_operation_log` LIMIT 1, 1000000SELECT id, user_id, ip, op_data, attr1, attr2, attr3, attr4, attr5, attr6, attr7, attr8, attr9, attr10, attr11, attr12 FROM `user_operation_log` LIMIT 1, 1000000

查询结果如下:

从结果可以看出减少不需要的列,查询效率也可以得到明显提升

第一条和第三条查询速度差不多,这时候你肯定会吐槽,那我还写那么多字段干啥呢,直接 * 不就完事了

注意本人的 MySQL 服务器和客户端是在_同一台机器_上,所以查询数据相差不多,有条件的同学可以测测客户端与MySQL分开

SELECT * 它不香吗?

在这里顺便补充一下为什么要禁止 SELECT *。难道简单无脑,它不香吗?

主要两点:

用 "SELECT * " 数据库需要解析更多的对象、字段、权限、属性等相关内容,在 SQL 语句复杂,硬解析较多的情况下,会对数据库造成沉重的负担。增大网络开销,* 有时会误带上如log、IconMD5之类的无用且大文本字段,数据传输size会几何增涨。特别是MySQL和应用程序不在同一台机器,这种开销非常明显。结束

最后还是希望大家自己去实操一下,肯定还可以收获更多,欢迎留言!!

创建脚本我给你正好了,你还在等什么!!!

本文链接地址:https://www.jiuchutong.com/zhishi/292956.html 转载请保留说明!

上一篇:【uniapp】 的事件处理详解(uniapp实战)

下一篇:从观景台俯瞰格雷梅,格雷梅国家公园,土耳其卡帕多西亚省 (© Anton Petrus/Getty Images)(观景台俯视图)

  • 生产型企业出口退税账务处理
  • 物流辅助服务税率
  • 车辆购置税和车船税的区别在哪
  • 增值税不用交还要计提吗
  • 公益组织收到捐赠款计入什么科目
  • 实收资本认缴怎么缴纳印花税
  • 小微企业要缴纳印花税吗
  • 信用代码证过期银行能转账吗
  • 专用发票不抵扣怎么做账
  • 直接收到货款也要走应收账款吗
  • 会计准则体系包括会计制度吗
  • 期货平仓费用
  • 固定资产分配分录
  • 因保管不善,不慎遗失
  • 现金比率一般多少
  • 贷款计提利息会计分录
  • 固定资产清理先提折旧再清理吗
  • 防伪税控发票种类主要有哪些
  • 无产权车位20年到期后还收费吗
  • 农民专业合作社属于什么企业类型
  • 金融企业贷款利息收入确认
  • 成本费用票少了怎么办
  • 高新创投企业所得税税率
  • 个税起征点是
  • 样品送出,不收款怎么做账?
  • 如何设置电脑关机时清理使用痕迹
  • win101703怎么看
  • win7系统中如何让未响应的程序继续运行
  • 关于获得政府补助的公告
  • 被投资企业所在地什么意思
  • 技术入股分红怎么计算
  • 进程cmd.exe
  • php字符串定义的三种方式
  • dc.exe是什么程序
  • dl是什么文件
  • 股权转让所得怎么做账
  • win7怎么删除windows.old
  • php常用的魔术方法有哪些
  • element ui el-tree
  • 资产评估中折现怎么算
  • php图片识别处理归类
  • thinkPHP模板不存在抛出异常
  • vue过滤器可以异步吗
  • Sublime Text 4 (Build 4143) 注册方法STEP BY STEP
  • vue.mixin是什么
  • 纳税调整项目明细表30行怎么填写
  • 小规模纳税人应交税费会计分录
  • python的多进程模块
  • python frames
  • 买轿车产生的服务费用
  • 收到汽车会计分录
  • python uppercase函数
  • db2获取当前年月日
  • 小规模企业税收优惠政策2022
  • 固定资产处置当月需要计提折旧吗
  • 职工基本医疗保险怎么用
  • 预收账款如何做账务处理
  • 应付票据是
  • 应收账款记账凭证怎么写
  • 小规模纳税人收到专票的会计分录
  • 会计凭证装订的步骤
  • 建账时应考虑的问题包括下列哪三项
  • 企业清算的顺序
  • 联想e430安装win10
  • ubuntu14打开终端
  • windows升级10
  • linux磁盘结构
  • onekey.exe是什么
  • 从0开始
  • opengl深度值与z值
  • 使用权资产
  • 关于Python的lambda函数,以下选项
  • unity3dwasd移动
  • scrapy爬虫教程
  • jquery22插件网
  • python怎么理解
  • 江西国税局电子税务局
  • 深圳微信税务局登录不了
  • 地税局多措并举工作总结
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设