我有一个统计表,它以很大的速度增长(大约 25M 行/天),我想针对选择进行优化,该表适合内存,并且服务器有足够的备用内存(32G,表是 4G)。
我的简单汇总查询是:
EXPLAIN select FROM_UNIXTIME(FLOOR(endtime/3600)*3600) as ts,sum(numevent1) as success , sum(numevent2) as failure from stats where endtime > UNIX_TIMESTAMP()-3600*96 group by ts order by ts;
+----+-------------+--------------+------+---------------+------+---------+------+----------+----------------------------------------------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+--------------+------+---------------+------+---------+------+----------+----------------------------------------------+
| 1 | SIMPLE | stats | ALL | ts | NULL | NULL | NULL | 78238584 | Using where; Using temporary; Using filesort |
+----+-------------+--------------+------+---------------+------+---------+------+----------+----------------------------------------------+
Stats是一个innodb表,endtime上有一个正常的索引。我应该如何优化这个?
注意:我确实计划添加汇总表,但目前这就是我所坚持的,我想知道是否可以在没有额外应用程序代码的情况下修复它。
我一直在做本地测试。请尝试以下操作:
alter table stats add index (endtime, numevent1, numevent2);
并删除order by
因为它应该隐含在group by
(我猜解析器只是忽略了order by
在这种情况下,但以防万一:)
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)