postgreSQL 储存地理位置600万性能测试笔记

对于地理位置储存,在如今的项目中用的愈来愈多,支持的数据库也很多,像mangodb,redis-geo,postgreSQL..... 本文对postgreSQL point 类型对地理位置数据插入,索引,附近查询,进行测试;因为电脑配置不高,仅仅插入600多万条数据进行测试,但测试结果为什么还不如那位大神上100亿测试的数据快。(下面解释为)php

硬件预览

  • 虚拟机系统:Ubuntu 16.1
  • 内存:4G
  • postgreSQL 9.5 (若是未安装postgreSQL,能够访问postgreSQL 基础入门操做安装)
  • 操做界面:postgreSQL控制台。

开始测试

建立数据库

create table tbl_point(id serial8, poi point);

修改添加一个序列生成器

alter sequence tbl_point_id_seq cache 10000;

插入随机数据10000条

insert into tbl_point(poi) select point(trunc(100000*(0.5-random())), trunc(100000*(0.5-random()))) from generate_series(1,10000);

ps001.jpg

插入随机数据100000条

insert into tbl_point(poi) select point(trunc(100000*(0.5-random())), trunc(100000*(0.5-random()))) from generate_series(1,100000);

ps002.jpg

插入随机数据1000000条

insert into tbl_point(poi) select point(trunc(100000*(0.5-random())), trunc(100000*(0.5-random()))) from generate_series(1,1000000);

ps003.jpg

插入随机数据4000000条

insert into tbl_point(poi) select point(trunc(100000*(0.5-random())), trunc(100000*(0.5-random()))) from generate_series(1,4000000);

ps004.jpg

插入数据大小

\dt+ tbl_point

ps005.jpg

给point类型字段建立GiST索引

注:建立索引比插入慢不少,建立索引成功后,插入相同数据量,速度也将变慢不少。

create index idx_tbl_point on tbl_point using gist(poi) with (buffering=on);  //建立索引

\di+        //查看索引信息

ps006.jpg

查询

查询一:

select *,poi <-> point(1000,1000) dist from tbl_point where poi <-> point(1000,1000) < 100 order by poi <-> point(1000,1000) limit 10;

ps007.jpg

查询二:

就是换个位置数据继续查10条。redis

select *,poi <-> point(4000,7000) dist from tbl_point where poi <-> point(4000,7000) < 100 order by poi <-> point(4000,7000) limit 10;

PS008.jpg

查询三:

刚才两次查询效率都不错,都是1毫秒多一点,来看看查50条记录效果。数据库

select *,poi <-> point(4000,7000) dist from tbl_point where poi <-> point(4000,7000) < 100 order by poi <-> point(4000,7000) limit 50;

ps009.jpg

查询四:

查50条记录效果几乎到了不理想的状态,咱们再把limit去掉,直接查询所有看看。dom

select *,poi <-> point(4000,7000) dist from tbl_point where poi <-> point(4000,7000) < 100 order by poi <-> point(4000,7000);

ps010.jpg

发现竟然快了不少不少post

总结

回答上面咱们的疑问:当数据足够时,咱们只查询10条时,并无扫描全盘,找到10条就返回,全部都是1ms 左右,那速度是至关的快。 因此,别人600亿的数据找10条速度理想就能够理解了。测试

而当须要返回50条数据时,知足要求的并无那么多,必然全盘扫描,而且屡次核对。形成查询时间达到10条查询时间的36000多倍。。。。。。。。实乃恐惧。。。code

最后奇怪的事情发生了,我执行所有查询,不添加 limit 50, 速度又快了不少不少。这个问题我也不是很懂,请各位赐教。blog

原创做者:邵泽明 原文连接:http://blog.4d4k.com/index.php/archives/46/索引

相关文章
相关标签/搜索