Oracle11g中数据的倒库和入库操做以及高版本数据导入低版本数据可能引起的问题

文章版权由做者李晓晖和博客园共有,若转载请于明显处标明出处:http://www.cnblogs.com/naaoveGIS/sql

1.前言

在10g以前,传统的导出和导入分别使用EXP工具和IMP工具,从10g开始,不只保留了原有的EXP和IMP工具,还提供了数据泵导出导入工具EXPDP和IMPDP。因此在11G的倒库和入库方式中,咱们也有两种方式能够选择:传统模式和数据泵模式。数据库

传统模式又分为:常规导入导出和直接导入导出。服务器

下面以导出数据为例,分别介绍各自导出原理。session

1.1简述各导入导出方式的原理

1.1.1常规导出原理

传统路径模式使用SQL SELECT语句抽取表数据。数据从磁盘读入到buffer cache缓冲区中,行被转移到评估缓冲区。在此以后根据SQL表达式,将记录返回给导出客户端,而后写入到dump文件。app

常规导出的例子:exp zhejiang/zhejiang file=/data1/zj_regular.dmp buffer=20480000工具

1.1.2直接导出

直接导出模式,数据直接从磁盘中读取到导出session的PGA中,行被直接转移到导出session的私有缓冲区,从而跳过SQL命令处理层。 避免了没必要要的数据转换。最后记录返回给导出客户端,写到dump文件。测试

直接导出的例子:exp zhejiang/zhejiang file=/data1/zj_direct.dmp buffer=20480000 recordlength=65535 direct=y。spa

1.1.3数据泵导出

数据泵方式是EXP方式的增强版,其原理相似,可是它的导出要借鉴服务器端的数据库目录。server

1.2传统模式和数据泵模式的对比

1.2.1传统模式的优势

EXP和IMP是客户段工具程序,它们既能够在客户端使用,也能够在服务器段使用。blog

而EXPDP和IMPDP是服务端的工具程序,它们只能在ORACLE服务端使用,不能在客户端使用。

1.2.2数据泵模式的优势

数据泵导出数据的时间更短,并且导出的数据文件大小更小。

    如下表格为我将网友的一个测试进行的统计:

类型

例子(导出40G左右的数据)

传统模式(直接导出)

18分钟

数据泵模式

14分钟,且导出的文件比传统模式小1.5G

1.3 注意

IMP只适用于EXP导出文件,不适用于EXPDP导出文件;IMPDP只适用于EXPDP导出文件,而不适用于EXP导出文件。

1.4 小结

由上面对比可见,在实际操做中,咱们在服务器端选择数据泵方式导入数据会更快一些。下面我主要介绍数据泵方式的导入和导出。

2.数据泵导出数据的流程

2.1建立逻辑目录并受权

建立逻辑目录“EXPDP_DIR”并将其映射到物理路径“D:\DBbak”下,在PL/SQL下面执行语句:Create or replace directory expdp_dir as 'D:\DBbak';

执行完后,要在对应的硬盘目录下建立该文件夹。

能够经过SQL查询是否成功建立逻辑目录,Select * from dba_directories,能够看到以下结果:

                       

最后,再给建立的目录赋予权限:

Grant read,write on directory EXPDP_DIR to Public;

2.2执行导出操做

创建expdp.bat文件,文件内容为:Expdp sccot/tiger@testDB directory=expdp_dir dumpfile =STDCG _201501.dmp logfile= STDCG _201501.log;执行该bat;

由于是导出全部数据,因此没有设置tables| schemas| tablespaces。

导出成功后,导出的数据会自动放在以前设置的Expdp_Dir文件夹下。

3.数据泵导入数据的流程

3.1 建立数据库实例等基本操做

a.建立数据库stdcg,包含SYS和SYSTEM两个用户

b.用SYS登录PL/SQL->File->Open->SQL script执行建立表空间sql脚本。须要注意的就是修改脚本中的路径:

DATAFILE 'F:\app\DELL\oradata\stdcg\DLGIS.DBF'(红色部分是本地数据库的路径)

c.执行建立用户脚本:包含dlsys、dlmis、dlinit、dlgis、sde、mms、umstat、ulog用户。

3.2建立逻辑目录并受权

如2.2中所描述的,这里直接给出语句:

Create or replace directory expdp_dir as 'd:\DBbak';

Grant read,write on directory expdp_dir to public;

不过多出了这样一个步骤:在D盘创建文件夹DBbak 后,须要将数据库的导出文件:STDCG _201501.DMP和STDCG _201501.log 一块儿拷贝到D:\DBbak目录下。

3.3执行导入操做

创建impdp.bat文件,文件中的内容为: impdp dlsys/dlsys@stdcg dumpfile= STDCG _201501.dmp  logfile= STDCG _201501_EXP.log。运行该bat文件。

一样,由于是全库导入,因此没有使用tables| schemas| tablespaces来进行导入内容设置。

4.11g数据导入10g的库中

4.1 降版本导出而后导入

首先要作与通常数据泵导出时相同的操做,即建立逻辑目录: Create or replace directory expdp_dir as 'D:\DBbak';

而后再导出数据时,sql命令上要加上一个version控制便可:

expdp sccot/tiger@testDB  dumpfile=stdcg10g.dmp  directory= expdp_dir  version=10.0.2。

导出后,再将导出的dmp文件导入到10g的库中便可。

4.2容易出现的问题

目前在江北项目和烟台项目中均作了以下操做:shp数据首先经过SDE导入到了11g的数据库中,因为现场数据库忽然须要降级,而后将11g的数据又从新导入导出到10g中。可是,两个现场都不分别出现了不一样的问题。

江北现场的问题是,在catalog里可以直连到10g上Oracle,也能看到各空间数据。可是,在arcmap中添加该数据库中的空间数据,图层渲染时会出现SDE内部错误,致使图层没法显示。

 

而烟台现场,则直接出现了直连数据库不定时失效问题:

测试能够链接:

 

点OK后又不能链接:

 

4.3解决方法及分析

4.3.1解决方法

将空间数据所在的DLGIS和SDE用户删除,从新经过SQL生成这两个用户以及先关表结构后。手动经过catalog直连到数据库上,而后手动导入图层,解决上述问题。

4.3.2 问题分析

猜测为11g数据转成10g数据时可能某些空间信息表被改变或者破坏,再也不符合arcgis10.0的链接规范等。形成了sde不稳定或者sde内部错误。

相关文章
相关标签/搜索