一次性能优化实战经历

每次经历数据库性能调优,都是对性能优化的再次认识、对本身知识不足的有力验证,只有不断总结、学习才能少走弯路。数据库


1、性能问题描述


应用端反应系统查询缓慢,长时间出不来结果。SQLServer数据库服务器吞吐量不足,CPU资源不足,常常飙到100%…….缓存


2、监测分析


收集性能数据采用二种方式:连续一段时间收集和高峰期实时收集性能优化


连续一天收集性能指标(如下简称“连续监测”)服务器


目的: 经过此方式获得CPU/内存/磁盘/SQLServer整体状况,宏观上分析当前服务器的主要的性能瓶颈。session


工具: 性能计数器 Perfmon+PAL日志分析器架构


配置:并发


  1. Perfmon配置主要性能计数器内容具体以下表app


  2. Perfmon收集的时间间隔:15秒 (不宜太短,不然会对服务器性能形成额外压力)ide


  3. 收集时间:  8:00~20:00业务时间,收集一天函数



分析监测结果


收集完成后,经过PAL工具自动分析出结果,显示主要性能问题:


业务高峰期CPU接近100%,并伴随较多的Latch(闩锁)等待,查询时有大量的扫表操做。这些只是宏观上获得的“现象级“的性能问题表现,并不能必定说明是CPU资源不够致使的,须要进一步找证据分析。


PAL分析得出几个突出性能问题


1. 业务高峰期CPU接近瓶颈:CPU平均在60%左右,高峰在80%以上,极端达到100%



2. Latch等待一直持续存在,平均在>500。Non-Page Latch等待严重




3. 业务高峰期有大量的表扫描



4. SQL编译和反编译参数高于正常



5.PLE即页在内存中的生命周期,其数量从某个时间点出现断崖式降低


其数量从早上某个时间点降低后直持续到下午4点,说明这段时间内存中页面切换比较频繁,出现从磁盘读取大量页数据到内存,极可能是大面积扫表致使。



实时监测性能指标


目的: 根据“连续监测“已知的业务高峰期PeakTime主要发生时段,接下来经过实时监测重点关注这段时间各项指标,进一步确认问题。


工具: SQLCheck(工具使用介绍文章后面会发出)


配置: 客户端链接到SQLCheck配置


小贴士:建议不要在当前服务器运行,可选择另一台机器运行SQLCheck


分析监测结果


实时监测显示Non-Page Latch等待严重,这点与上面“连续监测”获得结果一直

Session之间阻塞现象时常发生,经分析是大的结果集查询阻塞了别的查询、更新、删除操做致使


详细分析


数据库存存在大量表扫描操做,致使缓存中数据不能知足查询,须要从磁盘中读取数据,产生IO等待致使阻塞。


 1. Non-Page Latch等待时间长



2. 当 Non-Page Latch等待发生时候,实时监测显示正在执行大的查询操做



3. 伴有session之间阻塞现象,在大的查询时发生阻塞现象,CPU也随之飙到95%以上



解决方案


找到问题语句,建立基于条件的索引来减小扫描,并更新统计信息。


上面方法还没法解决,考虑将受影响的数据转移到更快的IO子系统,考虑增长内存。


3、等待类型分析


经过等待类型,换个角度进一步分析到底时哪些资源出现瓶颈


工具:  DMV/DMO


操做:


1. 先清除历史等待数据


选择早上8点左右执行下面语句


DBCC SQLPERF('sys.dm_os_wait_stats', CLEAR);


2. 晚上8点左右执行,执行下面语句收集Top 10的等待类型信息统计。





3.提取信息



查询结果得出排名:


1:CXPACKET

2:LATCH_X

3:IO_COMPITION

4:SOS_SCHEDULER_YIELD

5:   ASYNC_NETWORK_IO

6.   PAGELATCH_XX

7/8.PAGEIOLATCH_XX


跟主要资源相关的等待方阵以下:


CPU相关:CXPACKET 和SOS_SCHEDULER_YIELD

IO相关: PAGEIOLATCH_XXIO_COMPLETION

Memory相关: PAGELATCH_XX、LATCH_X


进一步分析前几名等待类型


当前排前三位:CXPACKET、LATCH_EX、IO_COMPLETION等待,开始一个个分析其产生等待背后缘由


CXPACKET等待分析


CXPACKET等待排第1位, SOS_SCHEDULER_YIELD排在4位,伴有第七、8位的PAGEIOLATCH_XX等待。发生了并行操做worker被阻塞


说明:


1.    存在大范围的表Scan


2.    某些并行线程执行时间过长,这个要将PAGEIOLATCH_XX和非页闩锁Latch_XX的ACCESS_METHODS_DATASET_PARENT Latch结合起来看,后面会给到相关信息


3.    执行计划不合理的可能


分析:


1.     首先看一下花在执行等待和资源等待的时间


2.     PAGEIOLATCH_XX是否存在,PAGEIOLATCH_SH等待,这意味着大范围SCAN


3.     是否同时有ACCESS_METHODS_DATASET_PARENT Latch或ACCESS_METHODS_SCAN_RANGE_GENERATOR LATCH等待


4.     执行计划是否合理


信提取息:


获取CPU的执行等待和资源等待的时间所占比重


执行下面语句:


--CPU Wait Queue (threshold<=6)

select  scheduler_id,idle_switches_count,context_switches_count,current_tasks_count, active_workers_count from  sys.dm_os_schedulers

where scheduler_id<255


SELECT  sum(signal_wait_time_ms) as total_signal_wait_time_ms,

sum(wait_time_ms-signal_wait_time_ms) as resource_wait_time_percent,

sum(signal_wait_time_ms)*1.0/sum(wait_time_ms)*100 as signal_wait_percent,

sum(wait_time_ms-signal_wait_time_ms)*1.0/sum(wait_time_ms)*100 asresource_wait_percent  FROM  SYS.dm_os_wait_stats



结论:从下表收集到信息CPU主要花在资源等待上,而执行时候等待占比率小,因此不能武断认为CPU资源不够。


形成缘由:


缺乏汇集索引、不许确的执行计划、并行线程执行时间过长、是否存在隐式转换、TempDB资源争用


解决方案:


主要从如何减小CPU花在资源等待的时间


1.    设置查询的MAXDOP,根据CPU核数设置合适的值(解决多CPU并行处理出现水桶短板现象)


2.    检查”cost threshold parallelism”的值,设置为更合理的值


3.    减小全表扫描:创建合适的汇集索引、非汇集索引,减小全表扫描


4.    不精确的执行计划:选用更优化执行计划


5.    统计信息:确保统计信息是最新的


6.    建议添加多个Temp DB 数据文件,减小Latch争用,最佳实践:>8核数,建议添加4个或8个等大小的数据文件


LATCH_EX等待分析


LATCH_EX等待排第2位。


说明:


有大量的非页闩锁等待,首先确认是哪个闩锁等待时间过长,是否同时发生CXPACKET等待类型。


分析:


查询全部闩锁等待信息,发现ACCESS_METHODS_DATASET_PARENT等待最长,查询相关资料显示因从磁盘->IO读取大量的数据到缓存,结合与以前Perfmon结果作综合分析判断,判断存在大量扫描。


运行脚本


SELECT * FROM sys.dm_os_latch_stats


信提取息:



形成缘由:


有大量的并行处理等待、IO页面处理等待,这进一步推定存在大范围的扫描表操做。


与开发人员确认存储过程当中使用大量的临时表,并监测到业务中处理用频繁使用临时表、标量值函数,不断建立用户对象等,TEMPDB 处理内存相关PFSGAMSGAM时,有不少内部资源申请征用的Latch等待现象。


解决方案:


1.    优化TempDB

2.    建立非汇集索引来减小扫描

3.    更新统计信息

4.    在上面方法仍然没法解决,可将受影响的数据转移到更快的IO子系统,考虑增长内存


IO_COMPLETION等待分析


现象:


IO_COMPLETION等待排第3位


说明:


IO延迟问题,数据从磁盘到内存等待时间长


分析:


从数据库的文件读写效率分析哪一个比较慢,再与“CXPACKET等待分析”的结果合起来分析。


Temp IO读/写资源效率


1.    TempDB的数据文件的平均IO在80左右,这个超出通常值,TempDB存在严重的延迟。


2.    TempDB所在磁盘的Read latency为65,也比通常值偏高。


运行脚本:


--数据库文件读写IO性能

SELECT DB_NAME(fs.database_id) AS [Database Name], CAST(fs.io_stall_read_ms/(1.0 + fs.num_of_reads) ASNUMERIC(10,1)) AS [avg_read_stall_ms],

CAST(fs.io_stall_write_ms/(1.0 + fs.num_of_writes) AS NUMERIC(10,1)) AS [avg_write_stall_ms],

CAST((fs.io_stall_read_ms + fs.io_stall_write_ms)/(1.0 + fs.num_of_reads + fs.num_of_writes) AS NUMERIC(10,1)) AS[avg_io_stall_ms],

CONVERT(DECIMAL(18,2), mf.size/128.0) AS [File Size (MB)], mf.physical_name, mf.type_desc, fs.io_stall_read_ms,fs.num_of_reads,

fs.io_stall_write_ms, fs.num_of_writes, fs.io_stall_read_ms + fs.io_stall_write_ms AS [io_stalls], fs.num_of_reads +fs.num_of_writes AS [total_io]

FROM sys.dm_io_virtual_file_stats(null,null) AS fs

INNER JOIN sys.master_files AS mf WITH (NOLOCK)

ON fs.database_id = mf.database_id

AND fs.[file_id] = mf.[file_id]

ORDER BY avg_io_stall_ms DESC OPTION (RECOMPILE);

 

--驱动磁盘-IO文件状况

SELECT [Drive],

       CASE

              WHEN num_of_reads = 0 THEN 0

              ELSE (io_stall_read_ms/num_of_reads)

       END AS [Read Latency],

       CASE

              WHEN io_stall_write_ms = 0 THEN 0

              ELSE (io_stall_write_ms/num_of_writes)

       END AS [Write Latency],

       CASE

              WHEN (num_of_reads = 0 AND num_of_writes = 0) THEN 0

              ELSE (io_stall/(num_of_reads + num_of_writes))

       END AS [Overall Latency],

       CASE

              WHEN num_of_reads = 0 THEN 0

              ELSE (num_of_bytes_read/num_of_reads)

       END AS [Avg Bytes/Read],

       CASE

              WHEN io_stall_write_ms = 0 THEN 0

              ELSE (num_of_bytes_written/num_of_writes)

       END AS [Avg Bytes/Write],

       CASE

              WHEN (num_of_reads = 0 AND num_of_writes = 0) THEN 0

              ELSE ((num_of_bytes_read + num_of_bytes_written)/(num_of_reads + num_of_writes))

       END AS [Avg Bytes/Transfer]

FROM (SELECT LEFT(mf.physical_name, 2) AS Drive, SUM(num_of_reads) AS num_of_reads,

                SUM(io_stall_read_ms) AS io_stall_read_ms, SUM(num_of_writes) AS num_of_writes,

                SUM(io_stall_write_ms) AS io_stall_write_ms, SUM(num_of_bytes_read) AS num_of_bytes_read,

                SUM(num_of_bytes_written) AS num_of_bytes_written, SUM(io_stall) AS io_stall

      FROM sys.dm_io_virtual_file_stats(NULL, NULL) AS vfs

      INNER JOIN sys.master_files AS mf WITH (NOLOCK)

      ON vfs.database_id = mf.database_id AND vfs.file_id = mf.file_id

      GROUP BY LEFT(mf.physical_name, 2)) AS tab

ORDER BY [Overall Latency] OPTION (RECOMPILE);


信息提取:



各数据文件IO/CPU/Buffer访问状况,Temp DB的IO Rank达到53%以上

 


解决方案:


添加多个Temp DB 数据文件,减小Latch争用。最佳实践:>8核数,建议添加4个或8个等大小的数据文件。


其余等待


分析:


经过等待类型发现与IO相关 的PAGEIOLATCH_XX 值很是高,数据库存存在大量表扫描操做,致使缓存中数据不能知足查询,须要从磁盘中读取数据,产生IO等待。


解决方案:


建立合理非汇集索引来减小扫描,更新统计信息


上面方法还没法解决,考虑将受影响的数据转移到更快的IO子系统,考虑增长内存。


4、优化方案


依据以上监测和分析结果,从“优化顺序”和“实施原则”开始实质性的优化。


优化顺序


1.    从数据库配置优化


理由:代价最小,根据监测分析结果,经过修改配置可提高空间不小。


2.    索引优化


理由:索引不会动数据库表等与业务紧密的结构,业务层面不会有风险。


步骤:考虑到库中打表(超过100G),在索引优化也要分步进行。 优化索引步骤:无用索引->重复索引->丢失索引添加->汇集索引->索引碎片整理。


3.    查询优化


理由:语句优化须要结合业务,须要和开发人员紧密沟通,最终选择优化语句的方案


步骤:DBA抓取执行时间、使用CPU、IO、内存最多的TOP SQL语句/存储过程,交由开发人员并协助找出可优化的方法,如加索引、语句写法等。


实施原则


整个诊断和优化方案首先在测试环境中进行测试,将在测试环境中测试经过并确认的逐步实施到正式环境。


数据库配置优化


1. 当前数据库服务器有超过24个核数, 当前MAXDOP为0,配置不合理,致使调度并发处理时出现较大并行等待现象(水桶短板原理)


优化建议:建议修改MAXDOP 值,最佳实践>8核的,先设置为4


2. 当前COST THRESHOLD FOR PARALLELISM值默认5秒


优化建议:建议修改 COST THRESHOLD FOR PARALLELISM值,超过15秒容许并行处理


3. 监测到业务中处理用频繁使用临时表、标量值函数,不断建立用户对象等,TEMPDB 处理内存相关PFSGAMSGAM时,有不少的Latch等待现象,给性能形成影响


优化建议:建议添加多个Temp DB 数据文件,减小Latch争用。最佳实践:>8核数,建议添加4个或8个等大小的数据文件。


4. 启用optimize for ad hoc workloads


5. Ad Hoc Distributed Queries开启即席查询优化


索引优化


1. 无用索引优化


目前库中存在大量无用索引,可经过脚本找出无用的索引并删除,减小系统对索引维护成本,提升更新性能。另外,根据读比率低于1%的表的索引,可结合业务最终确认是否删除索引。


详细列表请参考:性能调优数据收集_索引.xlsx-无用索引


无用索引,参考执行语句:


SELECT  OBJECT_NAME(i.object_id) AS table_name ,

        COALESCE(i.name, SPACE(0)) AS index_name ,

        ps.partition_number ,

        ps.row_count ,

        CAST(( ps.reserved_page_count * 8 ) / 1024. AS DECIMAL(12, 2)) AS size_in_mb ,

        COALESCE(ius.user_seeks, 0) AS user_seeks ,

        COALESCE(ius.user_scans, 0) AS user_scans ,

        COALESCE(ius.user_lookups, 0) AS user_lookups ,

        i.type_desc

FROM    sys.all_objects t

        INNER JOIN sys.indexes i ON t.object_id = i.object_id

        INNER JOIN sys.dm_db_partition_stats ps ON i.object_id = ps.object_id

                                                   AND i.index_id = ps.index_id

        LEFT OUTER JOIN sys.dm_db_index_usage_stats ius ON ius.database_id = DB_ID()

                                                           AND i.object_id = ius.object_id

                                                           AND i.index_id = ius.index_id

WHERE   i.type_desc NOT IN ( 'HEAP', 'CLUSTERED' )

        AND i.is_unique = 0

        AND i.is_primary_key = 0

        AND i.is_unique_constraint = 0

        AND COALESCE(ius.user_seeks, 0) <= 0

        AND COALESCE(ius.user_scans, 0) <= 0

        AND COALESCE(ius.user_lookups, 0) <= 0

ORDER BY OBJECT_NAME(i.object_id) ,

        i.name

 

 

    --1. Finding unused non-clustered indexes.

 

    SELECT OBJECT_SCHEMA_NAME(i.object_id) AS SchemaName ,

    OBJECT_NAME(i.object_id) AS TableName ,

    i.name ,

    ius.user_seeks ,

    ius.user_scans ,

    ius.user_lookups ,

    ius.user_updates

    FROM sys.dm_db_index_usage_stats AS ius

    JOIN sys.indexes AS i ON i.index_id = ius.index_id

    AND i.object_id = ius.object_id

    WHERE ius.database_id = DB_ID()

    AND i.is_unique_constraint = 0 -- no unique indexes

    AND i.is_primary_key = 0

    AND i.is_disabled = 0

    AND i.type > 1 -- don't consider heaps/clustered index

    AND ( ( ius.user_seeks + ius.user_scans +

    ius.user_lookups ) < ius.user_updates

    OR ( ius.user_seeks = 0

    AND ius.user_scans = 0

    )

    )


表的读写比,参考执行语句


DECLARE @dbid int

SELECT @dbid = db_id()

SELECT TableName = object_name(s.object_id),

       Reads = SUM(user_seeks + user_scans + user_lookups), Writes =SUM(user_updates),CONVERT(BIGINT,SUM(user_seeks + user_scans + user_lookups))*100/(SUM(user_updates)+SUM(user_seeks + user_scans + user_lookups))

FROM sys.dm_db_index_usage_stats AS s

INNER JOIN sys.indexes AS i

ON s.object_id = i.object_id

AND i.index_id = s.index_id

WHERE objectproperty(s.object_id,'IsUserTable') = 1

AND s.database_id = @dbid

GROUP BY object_name(s.object_id)

ORDER BY writes DESC


2. 移除、合并重复索引


目前系统中不少索引重复,对该类索引进行合并,减小索引的维护成本,从而提高更新性能。


重复索引,参考执行语句:


WITH MyDuplicate AS (SELECT  

Sch.[name] AS SchemaName,

Obj.[name] AS TableName,

Idx.[name] AS IndexName,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 1) AS Col1,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 2) AS Col2,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 3) AS Col3,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 4) AS Col4,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 5) AS Col5,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 6) AS Col6,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 7) AS Col7,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 8) AS Col8,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 9) AS Col9,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 10) AS Col10,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 11) AS Col11,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 12) AS Col12,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 13) AS Col13,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 14) AS Col14,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 15) AS Col15,

INDEX_Col(Sch.[name] + '.' + Obj.[name], Idx.index_id, 16) AS Col16

FROM sys.indexes Idx

INNER JOIN sys.objects Obj ON Idx.[object_id] = Obj.[object_id]

INNER JOIN sys.schemas Sch ON Sch.[schema_id] = Obj.[schema_id]

WHERE index_id > 0 AND  Obj.[name]='DOC_INVPLU')

SELECT    MD1.SchemaName, MD1.TableName, MD1.IndexName,

  MD2.IndexName AS OverLappingIndex,

  MD1.Col1, MD1.Col2, MD1.Col3, MD1.Col4,

  MD1.Col5, MD1.Col6, MD1.Col7, MD1.Col8,

  MD1.Col9, MD1.Col10, MD1.Col11, MD1.Col12,

  MD1.Col13, MD1.Col14, MD1.Col15, MD1.Col16

FROM MyDuplicate MD1

INNER JOIN MyDuplicate MD2 ON MD1.tablename = MD2.tablename

AND MD1.indexname <> MD2.indexname

AND MD1.Col1 = MD2.Col1

AND (MD1.Col2 IS NULL OR MD2.Col2 IS NULL OR MD1.Col2 = MD2.Col2)

AND (MD1.Col3 IS NULL OR MD2.Col3 IS NULL OR MD1.Col3 = MD2.Col3)

AND (MD1.Col4 IS NULL OR MD2.Col4 IS NULL OR MD1.Col4 = MD2.Col4)

AND (MD1.Col5 IS NULL OR MD2.Col5 IS NULL OR MD1.Col5 = MD2.Col5)

AND (MD1.Col6 IS NULL OR MD2.Col6 IS NULL OR MD1.Col6 = MD2.Col6)

AND (MD1.Col7 IS NULL OR MD2.Col7 IS NULL OR MD1.Col7 = MD2.Col7)

AND (MD1.Col8 IS NULL OR MD2.Col8 IS NULL OR MD1.Col8 = MD2.Col8)

AND (MD1.Col9 IS NULL OR MD2.Col9 IS NULL OR MD1.Col9 = MD2.Col9)

AND (MD1.Col10 IS NULL OR MD2.Col10 IS NULL OR MD1.Col10 = MD2.Col10)

AND (MD1.Col11 IS NULL OR MD2.Col11 IS NULL OR MD1.Col11 = MD2.Col11)

AND (MD1.Col12 IS NULL OR MD2.Col12 IS NULL OR MD1.Col12 = MD2.Col12)

AND (MD1.Col13 IS NULL OR MD2.Col13 IS NULL OR MD1.Col13 = MD2.Col13)

AND (MD1.Col14 IS NULL OR MD2.Col14 IS NULL OR MD1.Col14 = MD2.Col14)

AND (MD1.Col15 IS NULL OR MD2.Col15 IS NULL OR MD1.Col15 = MD2.Col15)

AND (MD1.Col16 IS NULL OR MD2.Col16 IS NULL OR MD1.Col16 = MD2.Col16)

ORDER BY

MD1.SchemaName,MD1.TableName,MD1.IndexName


3. 添加丢失索引


根据对语句的频次,表中读写比,结合业务对缺失的索引进行创建。


丢失索引,参考执行语句:





4. 索引碎片整理


须要经过DBCC check完成索引碎片清理,提升查询时效率。


备注:当前据库不少表比较大(>50G),作表上索引可能花费很长时间,通常1个T的库要8小时以上,建议制定一个详细计划,以表为单位逐步碎片清理。


索引碎片参考执行语句:


SELECT '[' + DB_NAME() + '].[' + OBJECT_SCHEMA_NAME(ddips.[object_id],

DB_ID()) + '].['

OBJECT_NAME(ddips.[object_id], DB_ID()) + ']' AS [statement] ,

i.[name] AS [index_name] ,

ddips.[index_type_desc] ,

ddips.[partition_number] ,

ddips.[alloc_unit_type_desc] ,

ddips.[index_depth] ,

ddips.[index_level] ,

CAST(ddips.[avg_fragmentation_in_percent] AS SMALLINT)

AS [avg_frag_%] ,

CAST(ddips.[avg_fragment_size_in_pages] AS SMALLINT)

AS [avg_frag_size_in_pages] ,

ddips.[fragment_count] ,

ddips.[page_count]

FROM sys.dm_db_index_physical_stats(DB_ID(), NULL,

NULL, NULL, 'limited') ddips

INNER JOIN sys.[indexes] i ON ddips.[object_id] = i.[object_id]

AND ddips.[index_id] = i.[index_id]

WHERE ddips.[avg_fragmentation_in_percent] > 15

AND ddips.[page_count] > 500

ORDER BY ddips.[avg_fragmentation_in_percent] ,

OBJECT_NAME(ddips.[object_id], DB_ID()) ,

i.[name]


5. 审查没有汇集、主键索引的表


当前库不少表没有汇集索引,须要细查缘由是否是业务要求,若是没有特殊缘由能够加上。


查询语句优化


1.  从数据库历史保存信息中,经过DMV获取 

相关文章
相关标签/搜索