比如我们得到的awr报告头部显示的下面的信息,我们就清楚的知道DB time是1502.06 mins,相对于Elapsed time来说,将近有20倍的压力。这个问题肯定需要关注。
Snap Id Snap Time Sessions Curs/Sess
--------- ------------------- -------- ---------
Begin Snap: 6219 21-Jul-15 22:00:08 583 2.5
End Snap: 6220 21-Jul-15 23:00:44 639 2.4
Elapsed: 60.61 (mins)
DB Time: 1,502.06 (mins)
当然我们也不大可能一下子生成几十个awr报告,然后就为了得到这个DB time值。
在之前的博客中也分享过如何来结合shell脚本抓取数据库的负载信息。
http://blog.itpub.net/23718752/viewspace-1168027/
比如得到的结果如下:
DB_NAME BEGIN_SNAP END_SNAP SNAPDATE LVL DURATION_MINS DBTIME
--------- ---------- ---------- -------------------- --- ------------- ----------
XXX 93464 93465 21 Aug 2015 00:00 1 30 15
93465 93466 21 Aug 2015 00:30 1 30 5
93466 93467 21 Aug 2015 01:00 1 30 5
93467 93468 21 Aug 2015 01:30 1 30 13
93468 93469 21 Aug 2015 02:00 1 30 24
这个对于日常的使用其实也基本够用,有一个最大的缺点就是这个指标其实是基于历史快照的,比如现在是15:30分,每隔一个小时生成一次快照,那么我想看看15:30这个时间点的大致数据库负载情况就无法实现了。
这个工作其实还是有一定的使用意义的,比如我们想通过orabbix来做这种类型的监控,不能专门再等1个小时吧,或者把时间调短,但是想必会对性能还是有一定的影响,因为我们只是想知道DB time的情况,其它的信息先放一放,暂时不需要。
Oracle在10g推出的时间模型,里面有一个很重要的数据字典表是DBA_HIST_SYS_TIME_MODEL,但是里面都是历史的信息,没有最新的信息,这个时候可以借助另外一个动态性能视图 v$sys_time_model
所以对于这个监控项,自己也是信心满满,写了下面的语句,看似也能达到效果。
select
round
(
(select round(e.value / 1000000,2) dbtime
FROM v$SYS_TIME_MODEL e
WHERE
e.STAT_NAME = 'DB time')*100/
(select ((systimestamp+0)-startup_time)*24*60*60 dbtime_duartion_
from v$instance )
,2) dbtime_per
from dual;
我的思路就是当前的DB time的值可以得到,但是需要找一个基准,这个时候又没有其它可参考的基准,我就想到使用数据库实例启动的时间,初始化启动的时候DB time的值会从0开始初始化,逐渐递增。
当然还是有误差的,比如数据库从nomount,mount到open阶段,db time的值就开始逐渐递增了,可能参考的基准时间会有一些误差,但是相对来说很小。
比如数据库open状态下
SQL> select value/1000000 ,t.*from v$sys_time_model t where stat_name='DB time'
VALUE/1000000 STAT_ID STAT_NAME VALUE
------------- ---------- ---------- ----------
130.364805 3649082374 DB time 130364805
然后停库,启动到mount阶段。
VALUE/1000000 STAT_ID STAT_NAME VALUE
------------- ---------- ----------- ----------
6.057183 3649082374 DB time 6057183
启动到Open阶段
VALUE/1000000 STAT_ID STAT_NAME VALUE
------------- ---------- ---------------------
10.063956 3649082374 DB time 10063956
可以看到DB time都是在逐渐递增的过程,大体情况下这种方式似乎还是一种不错的选择。
但是配置到orabbix监控中之后,仔细对比快照中的数据库负载,发现数据库的负载情况会有一些错误,有些库中通过快照查看负载在40%左右,但是通过实时取得的数据得到的结果负载时40%,这个时候我还是相信快照中的DB time.
自己带着疑问,手动测试了一下。
比如得到下面的信息是快照中的基准
BEGIN_SNAP END_SNAP SNAPDATE BEGIN_INTERVAL_TIME END_INTERVAL_TIME DURATION_MINS DBTIME
---------- ---------- -------------------- ------------------------------ ------------------------------ ------------- ----------
36202 36203 21 Aug 2015 07:00 21-AUG-15 06.00.59.625 AM 21-AUG-15 07.00.04.417 AM 59 130
36203 36204 21 Aug 2015 08:00 21-AUG-15 07.00.04.417 AM 21-AUG-15 08.00.09.642 AM 60 139
36204 36205 21 Aug 2015 09:00 21-AUG-15 08.00.09.642 AM 21-AUG-15 09.00.14.248 AM 60 138
我们还是运行实时查看DB time的脚本来看看差别到底有多大,可以看到这个库的负载情况比较规律,不会出现大的抖动,所以这个时间点范围内的DB time应该还是在130左右。
因为根据官方文档对于v$sys_time_model的描述,有个5秒的误差或者延迟率。
V$SYS_TIME_MODEL
displays the system-wide accumulated times for
various operations. The time reported is the total elapsed or CPU time (in
microseconds). Any timed operation will buffer at most 5 seconds of time data.
Specifically, this means that if a timed operation (such as SQL execution) takes
a long period of time to perform, the data published to this view is at most
missing 5 seconds of the time accumulated for the operation.
11:25:14 SQL> @aa.sql
DBTIME DURATION PER
---------- ---------- ----------
105969035 872180.533 121.498968
11:26:42 SQL> @aa.sql
DBTIME DURATION PER
---------- ---------- ----------
105969055 872180.717 121.498966
可以看到通过快照得到的负载是138/60=200%+
但是通过这个公式算出来的结果却有些小了,在120%左右。
在其它的库中也做了相似的测试,有的库中差别小,有的库中差别大。这个时候感觉脚本的结果是飘忽不定,不准确了。
难道是v$sys_time_model用错了
查看这个视图的定义,和使用dba_hist_sys_time_model还是有关系的。
Column | Datatype | Description |
---|---|---|
STAT_ID
|
NUMBER
|
Statistic identifier for the time statistic |
STAT_NAME
|
VARCHAR2(64)
|
Name of the statistic (see Table 7-4) |
VALUE
|
NUMBER
|
Amount of time (in microseconds) that the system has spent in this operation |
我们可以尝试以一个历史快照为参考,通过比较最新的DB time值来进行负载的计算。
这个时候还需要依赖于dba_sys_time_model和dba_snapshots
这个时候重新改进的语句就是下面的形式。在rac下还没有测试,单实例下还是没有问题的。
select (e.value/1000000/60-temp.dbtime)/(((systimestamp+0)-(END_INTERVAL_TIME+0 ))*24*60) dbtime
from (select t.begin_interval_time,t.end_interval_time,t.snap_id,e.value/1000000/60 dbtime,e.stat_name
FROM DBA_HIST_SYS_TIME_MODEL e,dba_hist_snapshot t
WHERE
e.STAT_NAME = 'DB time'
and t.snap_id=e.snap_id
and t.begin_interval_time > sysdate-2/24
and rownum<2
) temp,v$SYS_TIME_MODEL e
where e.STAT_NAME = 'DB time'
and rownum<2;
这个语句的重要控制点就在于时间的选择,如果选择3个小时前,2个小时前就会有一些差别,但是差别很小。可以说是误差。
DB_NAME BEGIN_SNAP END_SNAP SNAPDATE LVL DURATION_MINS DBTIME
--------- ---------- ---------- -------------------- --- ------------- ----------
XXX 93464 93465 21 Aug 2015 00:00 1 30 15
93465 93466 21 Aug 2015 00:30 1 30 5
93466 93467 21 Aug 2015 01:00 1 30 5
比如这个库的负载比较低,在20%以内,我们来看看3个小时前,2个小时前的基准,得到的DB time的情况。
3个小时前为基准:
DBTIME_WORDLOAD
----------
18%
2个小时前为基准:
DBTIME_WORDLOAD
----------
11%
和基准值差别不大,都是合理的范围之内了。
其实这个问题的根本原因就在于采样的范围,参考的基准越近,得到的误差范围就越低。打个简单的比方,就根据统计近年来的工资收入水平,我们还以*的标准来算,现在的误差就会很大,而且不准确,以近些年来的情况来统计,结果就会在范围之内,是一个基本可信的值了。