oracle logminer

Oracle使用logminer可以把oracleredo log的信息看到,

当我看到logminer中的v$logmnr_contents视图中的信息,可以看到

这些字段里的具体内容有SCN,START_SCN,COMMIT_SCN,更让我奇怪的竟然是这里面竟然有一个rowid,难道说,记录的信息是按照row来算的?

这个动态视图的字段非常多,内容也非常多,

我看其中最小的单位是,rowid,其中还包括的存储单位,tablespace,segment ,table,data block,

也就是说,是按照最小的rowid

字段的内容还包括是执行的DML SQL语句,这也能说明,oracle在做checkpoint的时候

是根据redo中的信息来把是DBWN进程根据redo 日志中的信息来把

比较两个SCN,把SCN中的 redo的信息写入到datafile 里面

CKPT更新数据文件头里的SCN信息,

我看redo log中的信息有DML,有ROWID,有SEG_NAME,TABLE_NAME,TABLE_SPACE

SESSION_ID,SQL_REDO,SQL_UNDO,有DATA_BLK#,DATA_OBJ#



ROWID这些字段的意义都是啥来着,ROWIDcan tell exactly where the row is

The physical addresss of this row



我想这条路我已经走到终点了

重点就是logminer 挖掘出来的redo log里面的信息


通过logminer分析redo日志的途径:

要安装LogMiner工具,必须首先要运行下面这样两个脚本,这两个脚本必须均以SYS用户身份运行。其中第一个脚本用来创建DBMS_LOGMNR包,该包用来分析日志文件。第二个脚本用来创建DBMS_LOGMNR_D包,该包用来创建数据字典文件。

1..$ORACLE_HOME/rdbms/admin/dbmslm.sql2. $ORACLE_HOME/rdbms/admin/dbmslmd.sql.

SQL> @d:\oracle\product\10.2.0\db_2\RDBMS\ADMIN\dbmslm.sql

程序包已创建。

授权成功。

SQL>@d:\oracle\product\10.2.0\db_2\RDBMS\ADMIN\dbmslmd.sql

程序包已创建。


使用LogMiner工具


1、创建数据字典文件(data-dictionary

数据字典文件是一个文本文件,使用包DBMS_LOGMNR_D来创建。如果我们要分析的数据库中的表有变化,影响到库的数据字典也发生变化,这时就需要重新创建该字典文件。另外一种情况是在分析另外一个数据库文件的重作日志时,也必须要重新生成一遍被分析数据库的数据字典文件。

ORACLE8I的时候,首先在init.ora初始化参数文件中,指定数据字典文件的位置,也就是添加一个参数UTL_FILE_DIR,该参数值为服务器中放置数据字典文件的目录。如:

UTL_FILE_DIR= (e:\Oracle\logs)  

ORACLE9I后,推荐使用SPFILE启动,可以动态调整参数;

SQL>show parameter spfile

NAME                                TYPE        VALUE                        

----------------------------------------------- ------------------------------

spfile                              string      D:\ORACLE\PRODUCT\10.2.0\DB_2\

                                               DATABASE\SPFILESGTEST2.ORA    

SQL>alter system set utl_file_dir=‘d:\oracle\logs‘ scope=spfile;

系统已更改。

SQL>startup force

ORACLE 例程已经启动。


Total System Global Area  289406976bytes                                      

FixedSize                 1248600bytes                                      

VariableSize             96469672bytes                                      

DatabaseBuffers          188743680bytes                                      

RedoBuffers               2945024bytes                                      

数据库装载完毕。

数据库已经打开。

SQL>show parameter utl_file_dir


NAME                                TYPE        VALUE                        

----------------------------------------------- ------------------------------

utl_file_dir                        string      d:\oracle\logs  


然后创建数据字典文件

SQL>@d:\dbms_logmnr_d.build.txt


PL/SQL 过程已成功完成。


脚本dbms_logmnr_d.build.txt

BEGIN

dbms_logmnr_d.build(

dictionary_filename=> ‘logminer_dict.dat‘,

dictionary_location=> ‘d:\oracle\logs‘);

END;

/


2
、创建要分析的日志文件列表

  Oracle的重作日志分为两种,在线(online)和离线(offline)归档日志文件,我这里主要分析归档日志,在线日志原理一样。

  A.创建列表
SQL>execute dbms_logmnr.add_logfile(options =>dbms_logmnr.new,logfilename=>‘D:\oracle\product\10.2.0\oradata\oracle9i\REDO01.LOG‘);


B.
添加另外的日志文件到列表
SQL>execute dbms_logmnr.add_logfile(options=>dbms_logmnr.addfile,logfilename=>‘D:\oracle\product\10.2.0\oradata\oracle9i\REDO02.LOG‘);

SQL>execute dbms_logmnr.add_logfile(options=>dbms_logmnr.addfile,logfilename=>‘D:\oracle\product\10.2.0\oradata\oracle9i\REDO03.LOG‘);
删除
SQL> execute dbms_logmnr.add_logfile(options=>dbms_logmnr.removefile,logfilenam

e=>‘D:\oracle\product\10.2.0\oradata\oracle9i\REDO03.LOG‘);

8.启动LogMiner进行分析

BEGIN

dbms_logmnr.start_logmnr(

dictfilename=> ‘d:\oracle\logs\logminer_dict.dat‘);

END;

/



4
、观察分析结果(v$logmnr_contents

到现在为止,我们已经分析得到了重作日志文件中的内容。动态性能视图v$logmnr_contents包含LogMiner分析得到的所有的信息。

SELECTsql_redo FROM v$logmnr_contents;  





对我来说,these things are total mess now ,because you know ,these

let me clear no

现在对我来说这些东西更像是一团乱麻,对的,就是一团乱麻


我觉得累了,也不再想去弄明白这些东西都是什么了xi

我只是脑子觉得累了,我在oracle的海洋里游泳游了两周

现在发现我喝了太多的oracle的海水,我现在要沉下去了


在沉下去之前,我想把我我在水里看到的东西记录下来



从哪个开始呢?

啊,让我们从redo开始吧,这是我开始这段旅程的原因

















本文出自 “原歌轩” 博客,请务必保留此出处http://yuangeqingtian.blog.51cto.com/6994701/1367874

oracle logminer,古老的榕树,5-wow.com

郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。