我想提高数据库性能。在一个项目中,所有表都来自int
to bigint
,我认为这不仅在存储方面是一个糟糕的选择,因为int
需要4 bytes
, and bigint
需要8 bytes
;但也与性能有关。
所以我创建了一个小表1000万条目,其中有一个脚本Python:
import uuid
rows=10000000
output='insert_description_bigint.sql'
f = open(output, 'w')
set_schema="SET search_path = norma;\n"
f.write(set_schema)
for i in range(1,rows):
random_string=uuid.uuid4()
query="insert into description_bigint (description_id, description) values (%d, '%s'); \n"
f.write(query % (i,random_string))
这就是我创建我的two
tables:
-- BIGINT
DROP TABLE IF EXISTS description_bigint;
CREATE TABLE description_bigint
(
description_id BIGINT PRIMARY KEY NOT NULL,
description VARCHAR(200),
constraint description_id_positive CHECK (description_id >= 0)
);
select count(1) from description_bigint;
select * from description_bigint;
select * from description_bigint where description_id = 9999999;
-- INT
DROP TABLE IF EXISTS description_int;
CREATE TABLE description_int
(
description_id INT PRIMARY KEY NOT NULL,
description VARCHAR(200),
constraint description_id_positive CHECK (description_id >= 0)
);
插入所有这些数据后,我对两个表进行查询,以测量它们之间的差异。令我惊讶的是,它们都有相同的性能:
select * from description_bigint; -- 11m55s
select * from description_int; -- 11m55s
我的基准测试有问题吗?不应该int
比bigint
?特别是,当primary key
根据定义是index
这意味着,为bigint
将会slower而不是为其创建索引int
,具有相同数量的数据,对吧?
我知道这不仅仅是一件小事,会对我的数据库性能产生巨大影响,但我想确保我们使用最佳实践并专注于性能。