"Oracle 데이터펌프 API활용"의 두 판 사이의 차이
DB CAFE
(→DB LINK를 이용한 파일 복사) |
(→파일 복사) |
||
172번째 줄: | 172번째 줄: | ||
</source> | </source> | ||
− | == 파일 복사 == | + | == 파일 복사(ASM등) == |
* DBMS_FILE_TRANSFER.COPY_FILE 패키지/함수 | * DBMS_FILE_TRANSFER.COPY_FILE 패키지/함수 | ||
* 소스 디렉토리에서 파일을 읽고 대상 디렉토리에 복사 | * 소스 디렉토리에서 파일을 읽고 대상 디렉토리에 복사 |
2020년 1월 8일 (수) 12:29 판
thumb_up 추천메뉴 바로가기
- DBA { Oracle DBA 명령어 > DBA 초급 과정 > DBA 고급 과정 }
- 튜닝 { 오라클 튜닝 목록 }
- 모델링 { 데이터 모델링 가이드 }
목차
1 스키마의 메타 동기화[편집]
DECLARE
hndl NUMBER;
TAG_NAME VARCHAR2(30) := 'EXP_MIG_TEST01';
BEGIN
hndl := DBMS_DATAPUMP.OPEN( operation => 'EXPORT'
, job_mode => 'SCHEMA' -- FULL, SCHEMA, TABLE, TABLESPACE, TRANSPORTABLE
, job_name=>'JOB_'||TAG_NAME
--, remote_link => 'DBLINK_NAME', version => 'LATEST'
);
DBMS_DATAPUMP.ADD_FILE( handle => hndl, filename => TAG_NAME||'.dmp', directory => 'DATA_PUMP_DIR', filetype => DBMS_DATAPUMP.KU$_FILE_TYPE_DUMP_FILE, reusefile=>1);
DBMS_DATAPUMP.ADD_FILE( handle => hndl, filename => TAG_NAME||'.log', directory => 'DATA_PUMP_DIR', filetype => DBMS_DATAPUMP.KU$_FILE_TYPE_LOG_FILE);
-- DBMS_DATAPUMP.SET_PARAMETER(handle=> hndl, name=> 'INCLUDE_METADATA', value=> 1); -- META 포함여부
DBMS_DATAPUMP.DATA_FILTER(handle=> hndl, name=> 'INCLUDE_ROWS', value=> 0); -- DATA 포함 여부 0,
DBMS_DATAPUMP.METADATA_FILTER(handle=> hndl, name=> 'SCHEMA_EXPR', value=>'IN (''FED40'',''TTT'')');
-- DBMS_DATAPUMP.METADATA_FILTER(handle=> hndl, name=> 'NAME_EXPR', value=>'IN (''FED40'', ''TEST'')');
-- DBMS_DATAPUMP.METADATA_FILTER(handle=> hndl, name=> 'NAME_LIST', value=>'''EMP'',''DEPT''');
DBMS_DATAPUMP.START_JOB(hndl);
END;
2 데이터펌프 EXPORT API[편집]
-- 1.테이블 DUMP EXPORT 스크립트
DECLARE
hdnl NUMBER;
BEGIN
hdnl := DBMS_DATAPUMP.OPEN( operation => 'EXPORT', job_mode => 'SCHEMA', job_name=>'JOB_EXP_TB_RC_JEJU_14');
DBMS_DATAPUMP.ADD_FILE( handle => hdnl, filename => 'INIT_BK_TB_RC_JEJU_14_20190910.EXP', directory => 'DATAPUMP2', filetype => dbms_datapump.ku$_file_type_dump_file ,reusefile=>1);
DBMS_DATAPUMP.ADD_FILE( handle => hdnl, filename => 'INIT_BK_TB_RC_JEJU_14_20190910.LOG', directory => 'DATA_PUMP_DIR', filetype => dbms_datapump.ku$_file_type_log_file ,reusefile=>1);
-- 스키마 정보
DBMS_DATAPUMP.METADATA_FILTER(handle => hdnl,
name => 'SCHEMA_EXPR',
value => ' IN (''유저명'')'
);
-- 테이블 정보
DBMS_DATAPUMP.METADATA_FILTER(handle => hdnl
,name => 'NAME_EXPR'
,value => ' IN (''테이블명'')'
,object_type => 'TABLE'
);
DBMS_DATAPUMP.START_JOB(hdnl);
END;
3 데이터펌프 IMPORT API[편집]
DECLARE
dph NUMBER;
v_job_name VARCHAR(100) := 'IMP_JOB_TEST';
BEGIN
-- DB_LINK 이용
dph := DBMS_DATAPUMP.OPEN( operation => 'IMPORT', job_mode => 'SCHEMA' ,job_name => v_job_name, remote_link => 'db링크명');
-- 덤프파일 작업시
-- dbms_datapump.add_file(handle => p_dph,
-- filename => 'EXPIMP%U.DMP',
-- directory => 'EXPIMP', filetype=>1);
-- 로그
dbms_datapump.add_file(handle => dph,
filename => v_job_name||'.log',
directory => 'DATA_PUMP_DIR', filetype=>3);
-- 스키마 정보
DBMS_DATAPUMP.METADATA_FILTER(handle => dph ,
name => 'SCHEMA_EXPR',
value => ' IN (''MIG_BACKUP'')');
-- 테이블 존재시 TRUNCATE/REPLACE/APPEND
dbms_datapump.set_parameter(handle => dph,
name => 'TABLE_EXISTS_ACTION',
value =>'REPLACE');
-- 테이블 정보
DBMS_DATAPUMP.METADATA_FILTER(handle => dph
,name => 'NAME_EXPR'
,value => ' IN (''TB_TEST'')'
,object_type => 'TABLE'
);
dbms_datapump.start_job(dph);
dbms_datapump.detach(dph);
EXCEPTION
WHEN OTHERS THEN
dbms_output.put_line('Error:' || sqlerrm || ' on Job-ID:' || dph);
END;
/
3.1 데이터펌프 IMPORT_개별TABLE복구[편집]
DECLARE
dph NUMBER;
v_job_name VARCHAR(100) := 'IMP_JOB_TABLE_RECOVERY';
BEGIN
-- DB_LINK 이용
dph := DBMS_DATAPUMP.OPEN( operation => 'IMPORT', job_mode => 'SCHEMA' ,job_name => v_job_name); -- , remote_link => 'db링크명'
-- 덤프파일 작업시
dbms_datapump.add_file(handle => dph,
filename => 'EXP_EMP_20200102_01.EXP',
directory => 'DATA_PUMP_DIR', filetype=>1);
-- 로그
dbms_datapump.add_file(handle => dph,
filename => v_job_name||'.log',
directory => 'DATA_PUMP_DIR', filetype=>3);
-- 스키마 정보
DBMS_DATAPUMP.METADATA_FILTER(handle => dph ,
name => 'SCHEMA_EXPR',
value => ' IN (''EMP'')');
-- 테이블 존재시 TRUNCATE/REPLACE/APPEND
dbms_datapump.set_parameter(handle => dph,
name => 'TABLE_EXISTS_ACTION',
value =>'TRUNCATE');
-- 테이블 정보
DBMS_DATAPUMP.METADATA_FILTER(handle => dph
,name => 'NAME_EXPR'
,value => ' IN (''TB_TEST'')'
,object_type => 'TABLE'
);
dbms_datapump.start_job(dph);
dbms_datapump.detach(dph);
EXCEPTION
WHEN OTHERS THEN
dbms_output.put_line('Error:' || sqlerrm || ' on Job-ID:' || dph);
END;
/
4 데이터펌프 로그파일 읽기 API[편집]
DECLARE
V1 VARCHAR2(200); --32767
F1 UTL_FILE.FILE_TYPE;
BEGIN
F1 := UTL_FILE.FOPEN('DATA_PUMP_DIR','INIT_BK_TB_RC_JEJU_12_20190910.LOG','R');
Loop
BEGIN
UTL_FILE.GET_LINE(F1,V1);
dbms_output.put_line(V1);
EXCEPTION WHEN No_Data_Found THEN EXIT;
END;
end loop;
IF UTL_FILE.IS_OPEN(F1) THEN
dbms_output.put_line('File is Open');
end if;
UTL_FILE.FCLOSE(F1);
END;
5 파일 복사(ASM등)[편집]
- DBMS_FILE_TRANSFER.COPY_FILE 패키지/함수
- 소스 디렉토리에서 파일을 읽고 대상 디렉토리에 복사
- 소스 및 대상 디렉토리는 로컬 파일 시스템에 있거나 ASM (Automatic Storage Management) 디스크 그룹에 있거나
로컬 파일 시스템과 ASM간에 어느 방향 으로든 복사 할 수 있음.
BEGIN
DBMS_FILE_TRANSFER.COPY_FILE(
source_directory_object => 'SOURCEDIR' -- 소스 디렉토리
, source_file_name => 't_xdbtmp.f' -- 소스 파일
, destination_directory_object => 'DGROUP' -- 타켓 디렉토리
, destination_file_name =>'t_xdbtmp.f' -- 타겟 파일
);
END;
/
5.1 DB LINK를 이용한 파일 복사[편집]
- DBMS_FILE_TRANSFER.PUT_FILE 패키지/함수
- 소스 에서 프로시져 실행 해야 함.
- 소스 => 타겟으로 복사
- 로컬 파일 또는 ASM을 읽고 원격 데이터베이스에 접속하여 원격 파일 시스템에 파일 사본을 작성합니다.
BEGIN
DBMS_FILE_TRANSFER.PUT_FILE(
source_directory_object => 'DATA_PUMP_DIR',
source_file_name => 'sample.dmp',
destination_directory_object => 'DATA_PUMP_DIR2',
destination_file_name => 'sample_copied.dmp',
destination_database => '디비링크명'
);
END;
/
6 DATAPUMP API 상세 정보[편집]
https://www.morganslibrary.org/reference/pkgs/dbms_datapump.html