摘要: 背景 进程模型数据库,须要为每一个会话指派独立的进程与之服务,在链接数很是多,且大都是活跃链接时,进程调度浪费或引入的开销甚至远远大于实际任务须要的开销(例如上下文切换,MEMCPY等),性能降低会较为严重。git
进程模型数据库,须要为每一个会话指派独立的进程与之服务,在链接数很是多,且大都是活跃链接时,进程调度浪费或引入的开销甚至远远大于实际任务须要的开销(例如上下文切换,MEMCPY等),性能降低会较为严重。github
PostgreSQL与Oracle Dedicate Server同样,属于进程模型。在很是高并发的状况下,性能会降低比较厉害,一般社区版本能够经过加链接池来解决,例如pgbouncer,可是加链接池也会带来一些问题:sql
一、绑定变量没法很好的知足,固然,PostgreSQL 11会增长相似Oracle cursor force的功能,内部将非绑定变量的SQL转换为绑定变量。数据库
《PostgreSQL 11 preview - 强制auto prepared statment开关(自动化plan cache)(相似Oracle cursor_sharing force)》后端
二、链接池会使得跳数增长,增长了延迟。bash
三、数据库防火墙配置的变化。从直接控制应用端来源,变成了链接池端来源。(除非修改链接池层的代码,作到来源IP和端口透传)并发
Oracle为了解决性能问题,提出了shared server的概念,相似数据库端的backend process pool,一个process可能服务于多个client。dom
PostgreSQL也能够如法炮制,好比阿里云RDS PG内核层面增长了内置的POOL。在高并发的状况下,性能好不少。socket
一、测试64 ~ 16384个并发tcp
二、测试TPC-B,包含5亿数据量。
三、测试logged table与unlogged table
四、测试对比社区PostgreSQL 10 与 阿里云PostgreSQL 10
一、数据库使用huge page
《PostgreSQL Huge Page 使用建议 - 大内存主机、实例注意》
二、修改pgbench,支持超过1000个链接的测试
《PostgreSQL 11 preview - pgbench 支持大于1000连接(ppoll()代替select())》
https://commitfest.postgresql.org/18/1388/
若是使用ppoll,则pstack pgbench能够看到相似以下信息
Thread 1 (Thread 0x7f3f4d89d840 (LWP 116621)): #0 0x00007f3f4ca4569d in poll () from /lib64/libc.so.6 #1 0x00007f3f4d45a9cf in poll (__timeout=-1, __nfds=1, __fds=0x7ffcd6e13c80) at /usr/include/bits/poll2.h:46 #2 pqSocketPoll (end_time=-1, forWrite=0, forRead=28675152, sock=<optimized out>) at fe-misc.c:1129 #3 pqSocketCheck (conn=conn@entry=0x1b58c50, forRead=forRead@entry=1, forWrite=forWrite@entry=0, end_time=end_time@entry=-1) at fe-misc.c:1071 #4 0x00007f3f4d45aa50 in pqWaitTimed (forRead=forRead@entry=1, forWrite=forWrite@entry=0, conn=conn@entry=0x1b58c50, finish_time=finish_time@entry=-1) at fe-misc.c:1003 #5 0x00007f3f4d454012 in connectDBComplete (conn=0x1b58c50) at fe-connect.c:1902 #6 PQconnectdbParams (keywords=<optimized out>, values=<optimized out>, expand_dbname=<optimized out>) at fe-connect.c:542 #7 0x000000000040576a in doConnect () #8 0x0000000000406e29 in threadRun () #9 0x0000000000403a1b in main ()
三、修改系统配置,保证有足够的fd, proc等
《PostgreSQL 10 + PostGIS + Sharding(pg_pathman) + MySQL(fdw外部表) on ECS 部署指南(适合新用户) - 珍藏级》
四、postgresql.conf 通用配置
listen_addresses = '0.0.0.0' max_connections = 30000 superuser_reserved_connections = 13 unix_socket_directories = '/tmp,.' tcp_keepalives_idle = 60 tcp_keepalives_interval = 10 tcp_keepalives_count = 0 shared_buffers = 32GB huge_pages = on maintenance_work_mem = 1GB dynamic_shared_memory_type = posix vacuum_cost_delay = 0 bgwriter_delay = 10ms bgwriter_lru_maxpages = 500 effective_io_concurrency = 0 max_parallel_workers_per_gather = 0 wal_level = minimal fsync = on synchronous_commit = on full_page_writes = on wal_buffers = 32MB checkpoint_timeout = 15min max_wal_size = 64GB min_wal_size = 16GB checkpoint_completion_target = 0.1 max_wal_senders = 0 random_page_cost = 1.2 log_destination = 'csvlog' logging_collector = on log_truncate_on_rotation = on log_checkpoints = on log_connections = on log_disconnections = on log_error_verbosity = verbose log_timezone = 'PRC' autovacuum = on log_autovacuum_min_duration = 0 autovacuum_freeze_max_age = 900000000 autovacuum_multixact_freeze_max_age = 900000000 autovacuum_vacuum_cost_delay = 0ms vacuum_freeze_min_age = 500000 vacuum_freeze_table_age = 1500000000 vacuum_multixact_freeze_min_age = 5000000 vacuum_multixact_freeze_table_age = 1500000000 datestyle = 'iso, mdy' timezone = 'PRC' lc_messages = 'en_US.utf8' lc_monetary = 'en_US.utf8' lc_numeric = 'en_US.utf8' lc_time = 'en_US.utf8' default_text_search_config = 'pg_catalog.english'
五、社区版本与阿里云版本的差别配置
native
port = 1921
aliyun
port = 1999 shared_preload_libraries = 'pg_concurrency_control.so' pg_concurrency_control.query_concurrency=64 pg_concurrency_control.bigquery_concurrency=64 pg_concurrency_control.transaction_concurrency=64 pg_concurrency_control.autocommit_concurrency=64
TPC-B测试SQL以下
scale=5000
\set aid random(1, 100000 * :scale) \set bid random(1, 1 * :scale) \set tid random(1, 10 * :scale) \set delta random(-5000, 5000) BEGIN; UPDATE pgbench_accounts SET abalance = abalance + :delta WHERE aid = :aid; SELECT abalance FROM pgbench_accounts WHERE aid = :aid; UPDATE pgbench_tellers SET tbalance = tbalance + :delta WHERE tid = :tid; UPDATE pgbench_branches SET bbalance = bbalance + :delta WHERE bid = :bid; INSERT INTO pgbench_history (tid, bid, aid, delta, mtime) VALUES (:tid, :bid, :aid, :delta, CURRENT_TIMESTAMP); END;
一、初始化
./pgsql11/bin/pgbench -i -s 5000
二、表大小
postgres=# \dt+ List of relations Schema | Name | Type | Owner | Size | Description --------+------------------+-------+----------+---------+------------- public | pgbench_accounts | table | postgres | 63 GB | public | pgbench_branches | table | postgres | 216 kB | public | pgbench_history | table | postgres | 0 bytes | public | pgbench_tellers | table | postgres | 2200 kB | (4 rows)
三、社区版本测试脚本以下
vi test_native.sh #!/bin/bash export PGHOST=/tmp export PGPORT=1921 export PGUSER=postgres export PGDATABASE=postgres Y=32 for ((i=1;i<=7;i++)) do X=$((Y*2)) psql -c "vacuum freeze" psql -c "checkpoint" ./pgsql11/bin/pgbench -M prepared -n -r -P 3 -c $X -j 64 -T 300 > ./test_native_$X.log 2>&1 Y=X done psql -c "vacuum freeze" psql -c "checkpoint" ./pgsql11/bin/pgbench -M prepared -n -r -P 3 -c 8192 -j 128 -T 600 > ./test_native_8192.log 2>&1 psql -c "vacuum freeze" psql -c "checkpoint" ./pgsql11/bin/pgbench -M prepared -n -r -P 3 -c 16384 -j 256 -T 600 > ./test_native_16384.log 2>&1
测试方法
chmod 700 ./test_native.sh nohup ./test_native.sh >/dev/null 2>&1 &
五、阿里云版本测试脚本以下
vi test_aliyun.sh #!/bin/bash export PGHOST=/tmp export PGPORT=1999 export PGUSER=postgres export PGDATABASE=postgres Y=32 for ((i=1;i<=7;i++)) do X=$((Y*2)) psql -c "vacuum freeze" psql -c "checkpoint" ./pgsql11/bin/pgbench -M prepared -n -r -P 3 -c $X -j 64 -T 300 > ./test_aliyun_$X.log 2>&1 Y=X done psql -c "vacuum freeze" psql -c "checkpoint" ./pgsql11/bin/pgbench -M prepared -n -r -P 3 -c 8192 -j 128 -T 600 > ./test_aliyun_8192.log 2>&1 psql -c "vacuum freeze" psql -c "checkpoint" ./pgsql11/bin/pgbench -M prepared -n -r -P 3 -c 16384 -j 256 -T 600 > ./test_aliyun_16384.log 2>&1
测试方法
chmod 700 ./test_aliyun.sh nohup ./test_aliyun.sh >/dev/null 2>&1 &
一、初始化
./pgsql11/bin/pgbench -i -s 5000 --unlogged-tables
二、修改数据库配置
vi $PGDATA/postgresql.conf synchronous_commit = off pg_ctl reload
三、测试一样的脚本
链接数 | 社区版本TPS | 阿里云版本TPS | 社区版本TPS (过滤首尾干扰值) |
阿里云版本TPS (过滤首尾干扰值) |
---|---|---|---|---|
64 | 69216 | 67853 | 无干扰 | 无干扰 |
128 | 69211 | 65712 | 无干扰 | 无干扰 |
256 | 62964 | 62775 | 无干扰 | 无干扰 |
512 | 44595 | 53382 | 46141 | 54988 |
1024 | 35055 | 44295 | 37022 | 48679 |
2048 | 26791 | 38881 | 30327 | 44358 |
4096 | 24218 | 26990 | 32023 | 39086 |
8192 | 7064 | 24304 | 18611 | 34316 |
16384 | 5046 | 12478 | 10020 | 29499 |
1.6万并发时,约3倍于社区版本。
链接数 | 社区版本RT | 阿里云版本RT |
---|---|---|
64 | 0.923 ms | 0.941 ms |
128 | 1.839 ms | 1.936 ms |
256 | 4.010 ms | 4.021 ms |
512 | 11.151 ms | 9.269 ms |
1024 | 27.475 ms | 21.070 ms |
2048 | 67.295 ms | 46.063 ms |
4096 | 127.923 ms | 104.689 ms |
8192 | 999.236 ms | 239.466 ms |
16384 | 1594.185 ms | 577.913 ms |
链接数 | 社区版本RT | 阿里云版本RT |
---|---|---|
64 | 0.428 ms | 0.465 ms |
128 | 0.698 ms | 0.734 ms |
256 | 1.784 ms | 1.658 ms |
512 | 4.736 ms | 4.378 ms |
1024 | 11.082 ms | 8.664 ms |
2048 | 37.258 ms | 8.007 ms |
4096 | 65.486 ms | 7.395 ms |
8192 | 818.411 ms | 6.472 ms |
16384 | 1183.571 ms | 4.927 ms |
1.6万链接时,真实SQL响应速度约240倍于社区版本。
链接数 | 社区版本RT DEV | 阿里云版本RT DEV |
---|---|---|
64 | 2.960 ms | 2.863 ms |
128 | 7.559 ms | 4.914 ms |
256 | 6.595 ms | 6.090 ms |
512 | 11.810 ms | 8.704 ms |
1024 | 30.656 ms | 46.411 ms |
2048 | 88.371 ms | 68.239 ms |
4096 | 183.815 ms | 140.255 ms |
8192 | 20114.612 ms | 345.584 ms |
16384 | 2404.222 ms | 1116.238 ms |
链接数 | 社区版本 | 阿里云版本 |
---|---|---|
64 | 0 s | 0 s |
128 | 0 s | 0 s |
256 | 4.8 s | 5 s |
512 | 8.9 s | 11.3 s |
1024 | 18.5 s | 27.4 s |
2048 | 36.3 s | 37.8 s |
4096 | 73.5 s | 93.6 s |
8192 | 150.9 s | 168.6 s |
16384 | 306 s | 341.8 s |
链接数 | 社区版本 | 阿里云版本 |
---|---|---|
64 | 0 s | 0 s |
128 | 0 s | 0 s |
256 | 0 s | 0 s |
512 | 0 s | 0 s |
1024 | 0 s | 0 s |
2048 | 0 s | 0 s |
4096 | 0 s | 0 s |
8192 | 594 s | 9 s |
16384 | 21 s | 24 s |
链接数 | 社区版本TPS | 阿里云版本TPS | 社区版本TPS (过滤首尾干扰值) |
阿里云版本TPS (过滤首尾干扰值) |
---|---|---|---|---|
64 | 99086 | 95932 | 无干扰 | 无干扰 |
128 | 86807 | 86719 | 无干扰 | 无干扰 |
256 | 69805 | 74371 | 70766 | 75143 |
512 | 49147 | 59423 | 50369 | 61153 |
1024 | 42295 | 45883 | 44798 | 48910 |
2048 | 32147 | 38698 | 36729 | 44552 |
4096 | 23556 | 27604 | 31504 | 38334 |
8192 | 17037 | 24524 | 22937 | 34553 |
16384 | 196 | 12668 | 1943 | 30273 |
链接数 | 社区版本RT | 阿里云版本RT |
---|---|---|
64 | 0.644 ms | 0.666 ms |
128 | 1.466 ms | 1.466 ms |
256 | 3.617 ms | 3.391 ms |
512 | 10.115 ms | 8.343 ms |
1024 | 22.761 ms | 20.864 ms |
2048 | 55.771 ms | 45.903 ms |
4096 | 130.195 ms | 107.858 ms |
8192 | 356.904 ms | 239.312 ms |
16384 | 66640.630 ms | 570.207 ms |
链接数 | 社区版本RT | 阿里云版本RT |
---|---|---|
64 | 0.475 ms | 0.501 ms |
128 | 0.934 ms | 0.854 ms |
256 | 2.109 ms | 1.842 ms |
512 | 4.656 ms | 4.587 ms |
1024 | 9.837 ms | 8.69 ms |
2048 | 36.882 ms | 7.928 ms |
4096 | 67.513 ms | 7.522 ms |
8192 | 201.208 ms | 6.536 ms |
16384 | 65428.243 ms | 4.811 ms |
链接数 | 社区版本RT DEV | 阿里云版本RT DEV |
---|---|---|
64 | 2.941 ms | 1.767 ms |
128 | 4.445 ms | 2.763 ms |
256 | 5.515 ms | 2.775 ms |
512 | 11.424 ms | 4.447 ms |
1024 | 28.950 ms | 16.575 ms |
2048 | 87.051 ms | 52.400 ms |
4096 | 200.132 ms | 149.614 ms |
8192 | 403.771 ms | 358.461 ms |
16384 | 462277.689 ms | 1161.376 ms |
链接数 | 社区版本 | 阿里云版本 |
---|---|---|
64 | 0 s | 0 s |
128 | 0 s | 0 s |
256 | 4.9 s | 5.3 s |
512 | 9.4 s | 10.2 s |
1024 | 18.5 s | 20.2 s |
2048 | 37.6 s | 40 s |
4096 | 75 s | 81.3 s |
8192 | 151.6 s | 168.4 s |
16384 | 312.1 s | 341.5 s |
链接数 | 社区版本 | 阿里云版本 |
---|---|---|
64 | 0 s | 0 s |
128 | 0 s | 0 s |
256 | 0 s | 0 s |
512 | 0 s | 0 s |
1024 | 0 s | 0 s |
2048 | 0 s | 0 s |
4096 | 3 s | 3 s |
8192 | 6 s | 9 s |
16384 | 3312 s | 27 s |
进程模型数据库,须要为每一个会话指派独立的进程与之服务,在链接数很是多,且大都是活跃链接时,进程调度浪费或引入的开销甚至远远大于实际任务须要的开销(例如上下文切换,MEMCPY等),性能降低会较为严重。
阿里云RDS PG,采用与Oracle Shared Server模式相似的方案,解决了进程模式在高并发的状况下性能降低的问题。
在超过1万个活跃并发的状况下,阿里云RDS PG的TPC-B测试指标依旧可以保持15万左右的QPS (消除干扰项),吞吐能力是社区版本的3倍。同时,在低并发的状况下,性能不减,与社区版本至关。
具体测试结果分析:
一、阿里云RDS PG在高并发下,TPS相比社区版本好不少,更加平稳。
二、阿里云RDS PG引入了POOL机制后,响应延迟,抖动相比社区版本低了不少。
三、启用POOL后,整个事务的RT,相比社区版本下降,使得整个处理吞吐获得提高。
四、启用POOL机制,使得一个事务中,真正执行SQL的时间大大缩短。同时还避免了锁等待的问题。
16384个链接,社区版本
1.750 BEGIN; 21.531 UPDATE pgbench_accounts SET abalance = abalance + :delta WHERE aid = :aid; 0.745 SELECT abalance FROM pgbench_accounts WHERE aid = :aid; 461.077 UPDATE pgbench_tellers SET tbalance = tbalance + :delta WHERE tid = :tid; 700.583 UPDATE pgbench_branches SET bbalance = bbalance + :delta WHERE bid = :bid; 1.958 INSERT INTO pgbench_history (tid, bid, aid, delta, mtime) VALUES (:tid, :bid, :aid, :delta, CURRENT_TIMESTAMP); 408.864 END;
16384个链接,阿里云版本
559.291 BEGIN; 2.359 UPDATE pgbench_accounts SET abalance = abalance + :delta WHERE aid = :aid; 1.223 SELECT abalance FROM pgbench_accounts WHERE aid = :aid; 1.191 UPDATE pgbench_tellers SET tbalance = tbalance + :delta WHERE tid = :tid; 2.310 UPDATE pgbench_branches SET bbalance = bbalance + :delta WHERE bid = :bid; 0.981 INSERT INTO pgbench_history (tid, bid, aid, delta, mtime) VALUES (:tid, :bid, :aid, :delta, CURRENT_TIMESTAMP); 13.695 END;
对比以上两个版本的事务BEGIN的耗费时间、SQL执行时间的分布:
社区版本的SQL执行时间耗时更高(基本达到了500毫秒左右);
阿里云的PG版本,SQL执行时间很是短(基本都在1毫秒左右)。
实际的DML SQL执行越久,持锁就越久,并发1万多时,社区版本PG出现较多WAITING状态,就能够说明问题。
0:00.18 postgres: postgres postgres [local] UPDATE waiting 0:02.62 postgres: postgres postgres [local] UPDATE waiting 0:00.15 postgres: postgres postgres [local] UPDATE waiting 0:00.17 postgres: postgres postgres [local] UPDATE waiting 0:00.12 postgres: postgres postgres [local] UPDATE waiting 0:00.11 postgres: postgres postgres [local] UPDATE waiting .............................. 0:00.13 postgres: postgres postgres [local] COMMIT 0:00.13 postgres: postgres postgres [local] UPDATE waiting 0:00.13 postgres: postgres postgres [local] UPDATE waiting 0:00.16 postgres: postgres postgres [local] UPDATE waiting 0:00.14 postgres: postgres postgres [local] UPDATE waiting .....................
阿里云RDS PG内置POOL,不会致使SQL执行时间变长。所以有效的避免了持有资源锁的问题,是的真实的SQL RT很是的平稳。
链接数 | 社区版本RT | 阿里云版本RT |
---|---|---|
64 | 0.475 ms | 0.501 ms |
128 | 0.934 ms | 0.854 ms |
256 | 2.109 ms | 1.842 ms |
512 | 4.656 ms | 4.587 ms |
1024 | 9.837 ms | 8.69 ms |
2048 | 36.882 ms | 7.928 ms |
4096 | 67.513 ms | 7.522 ms |
8192 | 201.208 ms | 6.536 ms |
16384 | 65428.243 ms | 4.811 ms |
五、启用POOL后,16384个链接高并发下,收尾时长缩短。从3312秒缩短到了27秒。
六、进程模式,创建链接比较耗时,若是业务上须要短期内建立大量链接,也是一个瓶颈。好比建立16384个链接,串行建立,所有创建完16384个链接大概须要花费300秒。这样的业务,建议采用业务层链接池,而且配置较少的后端链接。
七、pgbench在统计TPS时,从全部链接创建完成,到全部链接退出,这之间产生的TPS。当须要创建不少链接或释放不少链接时,可能会耗时比较久,致使实际测试的性能不许,特别是在8000个链接以上时,断开链接过程当中,TPS降低比较明显,而且会被统计进去,实测600秒,到1000多秒才完成统计,详见LOG。
八、阿里云RDS PG内置POOL,相比外置链接池,还有一个好处是“不会影响绑定变量的使用,也不会引入新的跳数,同时不会影响数据库pg_hba.conf防火墙的配置”。
在超过1万个活跃并发的状况下,阿里云RDS PG的TPC-B测试指标依旧可以保持15万左右的QPS (消除干扰项),吞吐能力是社区版本的3倍。真实SQL执行响应速度240倍于社区版本。同时低并发的状况下,性能不减,与社区版本至关。
本文为云栖社区原创内容,未经容许不得转载。