PostgreSQL

关注公众号 jb51net

关闭
首页 > 数据库 > PostgreSQL > postgresql执行计划

postgresql数据库执行计划图文详解

作者:一只勤劳的耗子

了解PostgreSQL执行计划对于程序员来说是一项关键技能,执行计划是我们优化查询,验证我们的优化查询是否确实按照我们期望的方式运行的重要方式,这篇文章主要给大家介绍了关于postgresql数据库执行计划的相关资料,需要的朋友可以参考下

简介

执行计划功能展示了SQL在执行的过程中走向、成本以及命中情况。主要作用于SQL调优,输出SQL执行的详细信息,有利于调优人员及时分析性能下降原因。

1. 语法

EXPLAIN [statement]
EXPLAIN [option] [statement]
EXPLAIN [all_option] [statement]

1.1. 参数选项

analyze
    -执行真实的SQL,除估算成本外,额外输出一项实际结果
verbose
    -输出每个结点的详细信息
costs
    -输出估算成本(默认开启)
buffers  --(前提:必须打开analyze)
    -输出缓存使用信息命中率、脏数据、写,包含:共享块、本地块、临时块
format { text | xml | json | yaml }
    -指定输出格式

若想查询DDL真实语句成本,可以利用事务回滚方法来使用执行计划。例如:

--开始事务
BEGIN;
--DDL语句执行查询计划
    EXPLAIN ANALYZE UPDATE [table] SET id = id + 1;
--回滚事务
ROLLBACK;

事务回滚后并不会更新真正的数据,这样就能达到既想查看DDL语句的真实成本,又不会改变数据的好处。

2. 查看执行计划

执行计划输出结构示意图:

2.1. 整体结构解析

执行计划的结构是怎样的?

怎么查看执行计划的结构?

例如:最里层的启动成本是0.00,结束成本是10.00;那么上一层可能就是启动成本从10.00开始,结束成本大于10.00。以下示意图中蓝框就是最好的例子:

红框每个节点的开头说明

  • HashAggregate:表示走的hash聚合函数
  • Seq Scan:表示全部扫描

蓝框该节点的估算成本

  • cost=1.92..1.95:表示启动成本1.92,结束成本1.95
  • rows:该语句返回的行数
  • width:该行的平均字节数

绿框该节点的真实成本

  • time=0.087..0.093:表示启动成本0.087,结束成本0.093
  • rows:该节点返回的行数
  • loops:该节点循环次数

其他:该节点的详细信息

  • Output:该节点输出的sql语句
  • Batches:该节点内存使用大小
  • Buffers:内存命中率

简单说明

                                          QUERY PLAN
-------------------------------------------------------------------------------------------
 HashAggregate  (cost=1.92..1.95 rows=3 width=21) (actual time=0.100..0.102 rows=2 loops=1)
 'hash聚合扫描'  '(估算成本=启动成本..结束成本 , 执行SQL返回的行数 , 每行平均字节数)'  '(实际成本)'
   Output: count(*), "position"
     '表示该节点执行的字段'
   Group Key: pay_scale."position"
     '表示该节点执行的字段'
   Batches: 1  Memory Usage: 24kB
     '表示该节点内存使用大小'
   Buffers: shared hit=7 read=10
     '表示共享内存中有7个命中块,10个未命中(可能在系统缓存中命中的)'

2.2. 各个节点说明

① 扫描节点

顺序扫描(seq scan)

适用情况:

  • 一般为数据量小、且选择率高的表。
  • 1000条数据以下,select 查出结果大于500条

索引扫描(Index scan)

适用情况:

  • 一般数据量大,但选择率较低的表。
  • 1w条数据以上,select 查出结果低于实际条数的20%。

注意情况:

  • 如果索引条件不存在(选择率非常高),性能会严重下降,甚至不如全表扫描。

位图扫描(Bitmap scan)

适用情况:

  • 列中含有重复值。
  • 查询中包含and、or等范围性查找。

TID扫描(TID Scan)

适用情况:

  • where条件中带ctid的表。

覆盖索引扫描(Index Only Scan)

适用情况:

  • 更新少的表

其他扫描节点

Sample Scan

数据取样功能,支持查询返回取样数据。

  • 当前只在常规表和物化视图上接受tables ample子句。

Subquery Scan

以另一个查询计划树(子计划)为扫描对象进行元组扫描,其扫描过程最终被转换为子计划的执行。

  • 主要包含:exists、in、not in、any/some、all。

Function Scan

扫描对象为:妇女会元组集的函数。

  • 该节点在Scan的基础上扩展定义了function列表字段,存放Function Scan涉及的函数,以及funcordinality字段,是否返回结果加上序号列。

Valies Scan

values计算 由值表达式指定一个行值或一组行值。

  • 常见的:把它用来生成一个大型命令内的常量表,但是它也可以被独自使用。

CTE Scan

with提供了一种方式来书写大型查询中使用的辅助语句,这些语句通常被称为公共表达式或CTE,它可以被看成是被定义在一个查询中存在的临时表。

  • with子句中的每个辅助语句可以是:select、insert、update、delete。
  • with子句本身也可以被附加到一个主语句,主语句也可以是select、insert、update、delete。

WorkTable Scan

它与Recursive Union共同完成递归合并子查询。

Foreign Scan

扫描外部表,用于fdw或dblink和外部数据的交互情况。

Custom Scan

自定义扫描接口

② 连接节点

嵌套循环连接(Nest Loop join)

适用情况:数据量小的表。

哈希连接(Hash join)

适用情况:数据分布随机,重复值不多的表。

归并连接(Merge join)

适用情况:两张表的数据都是有序的。

③ 物化节点

物化节点(Material)

适用情况:结果在子查询中会被多次使用。

分组节点(3种情况)

1、Hash Aggregate

适用情况:数据无序的表。

2、Group Aggregate

适用情况:数据有序的表。

3、Aggregate

适用情况:含有聚集函数的group by操作。

排序节点(Sort)

适用情况:输出结果是有序的情况。

去重节点(Unique)

适用情况:查询中带distinct关键字(当要求去重的属性被order by子句引用时,一般会使用该节点)。

其他物化节点

Window Agg

  • 窗口函数

T_SetOp

  • setop语法节点

Lock Rows

  • 使用锁定子句(for update、for share)

Limit

  • 使用limit时的节点

④ 控制节点

BitmapAnd / BitmapOr节点

适用情况:2种节点都是位图类型,用于位图计算。

Result节点

适用情况:针对那些不扫描的查询,用来优化包含仅需计算一次的过滤条件。

Append节点

适用情况:用于处理包含一个或多个子计划的链表。

Recursive Union节点

适用情况:用于处理递归定义的union语句。

⑤ 并行节点

并行全表扫描(Parallel SeqScan)

当表数据量大、选择率低时,自动使用并行。

当表数据量大、选择率高时,不自动使用并行(大于50%)。

并行hash(Parallel Hash)

例如使用hash join

  • 每个worker都是先扫描小表score计算hash,再并行扫描大表,最后做hash。将数据汇总到gather节点合并最终结果集。

并行嵌套(Parallel NestedLoop)

支持并行嵌套查询

  • 如果不开启并行,普通的hash join性能会比开启低很多。

也支持其他并行

  • Gather / Gather Merge
  • 并行聚集(Partial / Finalize Aggregate / HashAggregate / GroupAggregate)
  • 并行排序(Gather Merge)
  • 并行B-Tree索引扫描(B-tree Index Scan)
  • 并行Bitmap扫描(Bitmap Heap Scan)
  • 并行Append(Parallel Append)
  • 并行Union(Parallel Union)

开启并行的参数

max_worker_processes(默认8)

  • OS支持的最大后台进程数

max_parallel_workers(默认8)

  • 最大并行worker数

max_parallel_workers_per_gather(默认2)

  • 最大并行执行worker数

max_parallel_maintenance_workers(默认2)

  • 最大并行维护worker数

它们之间的配置关系:

  • 以 max_worker_processes 为主配置
  • max_parallel_workers 不能超过主配置数量
  • max_parallel_workers_per_gather 和 max_parallel_maintenance_workers 相加的值也不能超过主配置数量

并行的触发条件

  • 表的存储空间至少大于 min_parallel_table_scan_size(默认 8MB)

索引

  • 索引的存储空间至少大于 min_parallel_index_scan_size (默认512KB)

查询某张表的索引大小

SELECT pg_size_pretty( pg_relation_size('[表名]'));

并行注意项

  • 在开启并行时,并不是所有的SQL都适合开并行,也并不是并行越多性能就越好,每条SQL都有适合自己的worker数,需要考虑开启并行后对系统开销成本计算。
  • 如果cpu、共享内存、worker进程等资源是整个数据库共享。一个select如果消耗了大量的资源(比如开启了64个worker),其他会话能够申请的资源会变得有限,这一行为在OLTP事务应用中尤为重要。所以需要将worker设置为合理的范围。

2.3. 参数输出说明

costs

costs主要输出执行计划的估算成本,而不是实际成本

  • cost=0.00..1.60:表示启动成本0.00,结束成本1.60
  • rows:该语句返回的行数
  • width:该行的平均字节数

计算估算成本的参数分别有:

  • seq_page_cost:全表扫描的单个数据块代价因子。
  • random_page_cost:索引扫描的单个数据块代价因子。
  • cpu_tuple_cost:处理每条记录的CPU开销代价因子。
  • cpu_index_tuple_cost:索引扫描时,每个索引条目的CPU开销代价因子。
  • cpu_operator_cost:操作符或函数的开销代价因子。

analyze

(这里手动把costs关了,因为它是默认打开的,主要为了展示analyze的输出结果)

analyze主要输出真实的成本(真正的去执行了这条SQL语句

  • time=0.010..0.013:表示启动成本0.010,结束成本0.013
  • rows:该节点返回的行数
  • loops:该节点循环次数
  • Planning Time:计划执行的时间
  • Execution Time:实际执行的时间

如果不想让该SQL执行成功,可以利用事务回滚

verbose

verbose用于输出该节点执行的事情 

buffers

buffers用于输出该节点的缓存命中率,前提是必须开启analyze

  • hit:该节点shared_buffer命中的page数量。
  • read:该节点shared_buffer没有命中的page,但可能在系统缓存中命中。
  • dirtied:该节点shared_buffer中出现的脏块。
  • written:该节点写入磁盘的page。
  • shared hit blocks(共享块):例如 表、索引、序列的数据块。
  • local hit blocks(本地块):例如 临时表、索引的数据块。
  • temp read blocks(临时块):例如 排序、hash、物化节点。

3. 优化建议

(来源于postgresql官方文档)

扫描节点优化建议

  • 过滤条件尽量提早使用。
  • 过滤性越高的字段靠前,过滤性低的字段靠后(id1 < 10 and id2 < 100)。
  • 核心SQL可以考虑采用"覆盖索引"方式,确保尽可能高效。
  • 多SQL总和考虑重复利用索引。
  • 不干扰过滤的前提下,order by 排序字段加入索引。
  • 索引应尽量使用字节数小的列,对于重复值多的列不建议使用索引。

连接节点优化建议

  • 每次使用执行计划前,先对表进行分析(analyze [表名])。
  • 调整合适的连接顺序(选择率低的join先执行)

耗时节点的合理性

1、数据扫描是否可以走索引、分区、物化视图?

  • 返回大量行数的表,采用顺序扫描。
  • 返回行数较少的表,采用索引扫描。

2、多表的连接顺序是否合理?

  • 当使用3张表查询时(1张表数据小,2张表数据大),在做连接操作性,可以先让大表和小表连接,再去连接另一张大表。

3、两张表的连接算法是否合理?

  • 查看基数估算结果是否准确,出现2表连接方式不合理。

4、返回行数估算是否准确?

  • 比较估算成本与实际成本。若统计信息差距过大,进而导致选择了次优的执行计划。

5、是否有内存不足的情况?

  • 当存在排序等情况时,操作的表超过了work_mem时,可以考虑适当增加该参数大小。

总结 

到此这篇关于postgresql数据库执行计划的文章就介绍到这了,更多相关postgresql执行计划内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

阅读全文