행위

"Oracle 데이터펌프"의 두 판 사이의 차이

DB CAFE

9번째 줄: 9번째 줄:
  
 
Getting Started
 
Getting Started
Table Exports/Imports
+
Table Exports/Imports
Schema Exports/Imports
+
Schema Exports/Imports
Database Exports/Imports
+
Database Exports/Imports
INCLUDE and EXCLUDE
+
INCLUDE and EXCLUDE
CONTENT and QUERY
+
CONTENT and QUERY
Network Exports/Imports (NETWORK_LINK)
+
Network Exports/Imports (NETWORK_LINK)
Flashback Exports
+
Flashback Exports
Miscellaneous Information
+
Miscellaneous Information
Data Pump API
+
Data Pump API
External Tables (Unloading/Loading Data Using External Tables)
+
External Tables (Unloading/Loading Data Using External Tables)
Secure External Password Store
+
Secure External Password Store
Help
+
Help
expdp
+
  expdp
impdp
+
  impdp
  
  
35번째 줄: 35번째 줄:
  
 
예제가 작동하려면 먼저 SCOTT 계정의 잠금을 해제하고 액세스 할 수있는 디렉토리 객체를 만들어야합니다. 디렉토리 객체는 실제 디렉토리에 대한 포인터 일 뿐이며 실제로는 데이터베이스 서버의 파일 시스템에 실제 디렉토리를 만들지 않습니다.
 
예제가 작동하려면 먼저 SCOTT 계정의 잠금을 해제하고 액세스 할 수있는 디렉토리 객체를 만들어야합니다. 디렉토리 객체는 실제 디렉토리에 대한 포인터 일 뿐이며 실제로는 데이터베이스 서버의 파일 시스템에 실제 디렉토리를 만들지 않습니다.
 +
 
<source lang='sql'>
 
<source lang='sql'>
 
CONN / AS SYSDBA
 
CONN / AS SYSDBA
41번째 줄: 42번째 줄:
 
CREATE OR REPLACE DIRECTORY test_dir AS '/u01/app/oracle/oradata/';
 
CREATE OR REPLACE DIRECTORY test_dir AS '/u01/app/oracle/oradata/';
 
GRANT READ, WRITE ON DIRECTORY test_dir TO scott;
 
GRANT READ, WRITE ON DIRECTORY test_dir TO scott;
Existing directories can be queried using the ALL_DIRECTORIES view.
 
 
</source>
 
</source>
 +
ALL_DIRECTORIES보기를 사용하여 기존 디렉토리를 조회 할 수 있습니다 .
  
Data Pump is a server-based technology, so it typically deals with directory objects pointing to physical directories on the database server. It does not write to the local file system on your client PC.
+
Data Pump는 서버 기반 기술이므로 일반적으로 데이터베이스 서버의 물리적 디렉토리를 가리키는 디렉토리 객체를 처리합니다. 클라이언트 PC의 로컬 파일 시스템에 쓰지 않습니다.
  
 
Table Exports/Imports
 
Table Exports/Imports
The TABLES parameter is used to specify the tables that are to be exported. The following is an example of the table export and import syntax.
+
TABLES매개 변수는 내보낼 수있는 테이블을 지정하는 데 사용됩니다. 다음은 테이블 내보내기 및 가져 오기 구문의 예입니다.
 
 
 
<source lang='sql'>
 
<source lang='sql'>
 
expdp scott/tiger@db10g tables=EMP,DEPT directory=TEST_DIR dumpfile=EMP_DEPT.dmp logfile=expdpEMP_DEPT.log
 
expdp scott/tiger@db10g tables=EMP,DEPT directory=TEST_DIR dumpfile=EMP_DEPT.dmp logfile=expdpEMP_DEPT.log
  
 
impdp scott/tiger@db10g tables=EMP,DEPT directory=TEST_DIR dumpfile=EMP_DEPT.dmp logfile=impdpEMP_DEPT.log
 
impdp scott/tiger@db10g tables=EMP,DEPT directory=TEST_DIR dumpfile=EMP_DEPT.dmp logfile=impdpEMP_DEPT.log
For example output files see expdpEMP_DEPT.log and impdpEMP_DEPT.log.
 
 
</source>
 
</source>
 +
예를 들어 출력 파일은 expdpEMP_DEPT.log 및 impdpEMP_DEPT.log를 참조하십시오 .
  
The TABLE_EXISTS_ACTION=APPEND parameter allows data to be imported into existing tables.
+
TABLE_EXISTS_ACTION=APPEND매개 변수를 사용하면 기존 테이블에 데이터를 가져올 수 있습니다.
  
 
Schema Exports/Imports
 
Schema Exports/Imports
70번째 줄: 70번째 줄:
  
 
Database Exports/Imports
 
Database Exports/Imports
The FULL parameter indicates that a complete database export is required. The following is an example of the full database export and import syntax.
+
FULL매개 변수는 전체 데이터베이스의 수출이 필요하다는 것을 나타냅니다. 다음은 전체 데이터베이스 내보내기 및 가져 오기 구문의 예입니다.
  
 
<source lang='sql'>
 
<source lang='sql'>
80번째 줄: 80번째 줄:
  
 
INCLUDE and EXCLUDE
 
INCLUDE and EXCLUDE
The INCLUDE and EXCLUDE parameters can be used to limit the export/import to specific objects. When the INCLUDE parameter is used, only those objects specified by it will be included in the export/import. When the EXCLUDE parameter is used, all objects except those specified by it will be included in the export/import. The two parameters are mutually exclusive, so use the parameter that requires the least entries to give you the result you require. The basic syntax for both parameters is the same.
+
INCLUDE및 EXCLUDE매개 변수는 특정 개체에 내보내기 / 가져 오기를 제한 할 수 있습니다. INCLUDE매개 변수를 사용 하면 지정된 매개 변수가 내보내기 / 가져 오기에 포함됩니다. EXCLUDE매개 변수를 사용 하면 지정된 매개 변수를 제외한 모든 개체가 내보내기 / 가져 오기에 포함됩니다. 두 매개 변수는 상호 배타적이므로 필요한 결과를 얻기 위해 최소한의 항목이 필요한 매개 변수를 사용하십시오. 두 매개 변수의 기본 구문은 동일합니다.
 +
 
  
 
<source lang='sql'>
 
<source lang='sql'>
87번째 줄: 88번째 줄:
 
</source>
 
</source>
  
The following code shows how they can be used as command line parameters.
+
다음 코드는 이들을 명령 행 매개 변수로 사용하는 방법을 보여줍니다.
  
 
<source lang='sql'>
 
<source lang='sql'>
95번째 줄: 96번째 줄:
 
</source>
 
</source>
  
If the parameter is used from the command line, depending on your OS, the special characters in the clause may need to be escaped, as follows. Because of this, it is easier to use a parameter file.
+
매개 변수가 명령 줄에서 사용되는 경우 OS에 따라 다음과 같이 절의 특수 문자를 이스케이프해야 할 수 있습니다. 이 때문에 매개 변수 파일을 사용하는 것이 더 쉽습니다.
  
 
  include=TABLE:\"IN (\'EMP\', \'DEPT\')\"
 
  include=TABLE:\"IN (\'EMP\', \'DEPT\')\"
  
A single import/export can include multiple references to the parameters, so to export tables, views and some packages we could use either of the following approaches.
+
단일 가져 오기 / 내보내기에는 매개 변수에 대한 여러 참조가 포함될 수 있으므로 테이블, 뷰 및 일부 패키지를 내보내려면 다음 방법 중 하나를 사용할 수 있습니다.
  
 
  INCLUDE=TABLE,VIEW,PACKAGE:"LIKE '%API'"
 
  INCLUDE=TABLE,VIEW,PACKAGE:"LIKE '%API'"
 
+
  or
or
 
 
 
 
  INCLUDE=TABLE
 
  INCLUDE=TABLE
 
  INCLUDE=VIEW
 
  INCLUDE=VIEW
 
  INCLUDE=PACKAGE:"LIKE '%API'"
 
  INCLUDE=PACKAGE:"LIKE '%API'"
 +
 
Multiple objects can be targeted in once statement using the LIKE and IN operators.
 
Multiple objects can be targeted in once statement using the LIKE and IN operators.
  
113번째 줄: 113번째 줄:
  
 
  EXCLUDE=SCHEMA:"IN ('OUTLN','SYSTEM','SYSMAN','FLOWS_FILES','APEX_030200','APEX_PUBLIC_USER','ANONYMOUS')"
 
  EXCLUDE=SCHEMA:"IN ('OUTLN','SYSTEM','SYSMAN','FLOWS_FILES','APEX_030200','APEX_PUBLIC_USER','ANONYMOUS')"
 +
 
The valid object type paths that can be included or excluded can be displayed using the DATABASE_EXPORT_OBJECTS, SCHEMA_EXPORT_OBJECTS, and TABLE_EXPORT_OBJECTS views.
 
The valid object type paths that can be included or excluded can be displayed using the DATABASE_EXPORT_OBJECTS, SCHEMA_EXPORT_OBJECTS, and TABLE_EXPORT_OBJECTS views.
  
CONTENT and QUERY
+
CONTENT and QUERY
The CONTENT parameter allows you to alter the contents of the export. The following command uses the METADATA_ONLY parameter value to export the contents of the schema without the data.
 
  
  expdp system/password@db10g schemas=SCOTT directory=TEST_DIR dumpfile=scott_meta.dmp logfile=expdp.log content=METADATA_ONLY
+
CONTENT매개 변수는 EXPORT의 내용을 변경할 수 있습니다. 다음 명령은 METADATA_ONLY 매개 변수 값을 사용 하여 데이터없이 스키마 내용을 내 보냅니다.
To capture the data without the metadata use the DATA_ONLY parameter value.
+
 
 +
 
 +
  expdp system/password@db10g schemas=SCOTT directory=TEST_DIR dumpfile=scott_meta.dmp logfile=expdp.log  
 +
content=METADATA_ONLY
 +
메타 데이터없이 데이터를 캡처하려면 DATA_ONLY매개 변수 값을 사용하십시오 .
  
 
  expdp system/password@db10g schemas=SCOTT directory=TEST_DIR dumpfile=scott_data.dmp logfile=expdp.log content=DATA_ONLY
 
  expdp system/password@db10g schemas=SCOTT directory=TEST_DIR dumpfile=scott_data.dmp logfile=expdp.log content=DATA_ONLY
The QUERY parameter allows you to alter the rows exported from one or more tables. The following example does a full database export, but doesn't include the data for the EMP and DEPT tables.
+
QUERY매개 변수는 하나 개 이상의 테이블에서 내 보낸 행을 변경할 수 있습니다. 다음 예제는 전체 데이터베이스 내보내기를 수행하지만 EMP DEPT 테이블의 데이터는 포함하지 않습니다.
  
 
  expdp system/password@db10g full=Y directory=TEST_DIR dumpfile=full.dmp logfile=expdp_full.log query='SCOTT.EMP:"WHERE deptno=0",SCOTT.DEPT:"WHERE deptno=0"'
 
  expdp system/password@db10g full=Y directory=TEST_DIR dumpfile=full.dmp logfile=expdp_full.log query='SCOTT.EMP:"WHERE deptno=0",SCOTT.DEPT:"WHERE deptno=0"'
The way you handle quotes on the command line will vary depending on what you are trying to achieve. Here are some examples that work for single tables and multiple tables directly from the command line.
+
명령 줄에서 따옴표를 처리하는 방법은 달성하려는 대상에 따라 다릅니다. 다음은 명령 줄에서 직접 단일 테이블과 여러 테이블에 대해 작동하는 몇 가지 예제입니다.
  
 
# Single Table. Multiple quoting methods possible.
 
# Single Table. Multiple quoting methods possible.
134번째 줄: 138번째 줄:
 
# Multiple WHERE clause on each table.
 
# Multiple WHERE clause on each table.
 
  expdp scott/tiger@pdb1 schemas=scott directory=TEST_DIR dumpfile=scott4.dmp logfile=scott4.log query='SCOTT.EMP:"WHERE deptno=10",SCOTT.DEPT:"WHERE deptno=20"'
 
  expdp scott/tiger@pdb1 schemas=scott directory=TEST_DIR dumpfile=scott4.dmp logfile=scott4.log query='SCOTT.EMP:"WHERE deptno=10",SCOTT.DEPT:"WHERE deptno=20"'
 +
 
Network Exports/Imports (NETWORK_LINK)
 
Network Exports/Imports (NETWORK_LINK)
The NETWORK_LINK parameter identifies a database link to be used as the source for a network export/import. The following database link will be used to demonstrate its use.
+
이 NETWORK_LINK매개 변수는 네트워크 내보내기 / 가져 오기 소스로 사용될 데이터베이스 링크를 식별합니다. 다음 데이터베이스 링크를 사용하여 그 사용법을 보여줍니다.
  
 
  CONN / AS SYSDBA
 
  CONN / AS SYSDBA
142번째 줄: 147번째 줄:
 
  CONN test/test
 
  CONN test/test
 
  CREATE DATABASE LINK remote_scott CONNECT TO scott IDENTIFIED BY tiger USING 'DEV';
 
  CREATE DATABASE LINK remote_scott CONNECT TO scott IDENTIFIED BY tiger USING 'DEV';
In the case of exports, the NETWORK_LINK parameter identifies the database link pointing to the source server. The objects are exported from the source server in the normal manner, but written to a directory object on the local server, rather than one on the source server. Both the local and remote users require the EXP_FULL_DATABASE role granted to them.
+
반출의 경우, NETWORK_LINK매개 변수는 소스 서버를 가리키는 데이터베이스 링크를 식별합니다. 개체는 정상적인 방법으로 원본 서버에서 내보내지만 원본 서버의 개체가 아닌 로컬 서버의 디렉터리 개체에 기록됩니다. 로컬 및 원격 사용자 모두 EXP_FULL_DATABASE에게 부여 된 역할이 필요 합니다.
  
 
  expdp test/test@db10g tables=SCOTT.EMP network_link=REMOTE_SCOTT directory=TEST_DIR dumpfile=EMP.dmp  
 
  expdp test/test@db10g tables=SCOTT.EMP network_link=REMOTE_SCOTT directory=TEST_DIR dumpfile=EMP.dmp  
 
  logfile=expdpEMP.log
 
  logfile=expdpEMP.log
For imports, the NETWORK_LINK parameter also identifies the database link pointing to the source server. The difference here is the objects are imported directly from the source into the local server without being written to a dump file. Although there is no need for a DUMPFILE parameter, a directory object is still required for the logs associated with the operation. Both the local and remote users require the IMP_FULL_DATABASE role granted to them.
+
가져 오기의 경우 NETWORK_LINK매개 변수는 원본 서버를 가리키는 데이터베이스 링크도 식별합니다.  
 +
차이점은 개체가 덤프 파일에 기록되지 않고 원본에서 로컬 서버로 직접 가져온 것입니다.  
 +
DUMPFILE매개 변수 가 필요하지 않지만 조작과 연관된 로그에는 여전히 디렉토리 오브젝트가 필요합니다.  
 +
로컬 및 원격 사용자 모두 IMP_FULL_DATABASE에게 부여 된 역할이 필요 합니다.
  
 
  impdp test/test@db10g tables=SCOTT.EMP network_link=REMOTE_SCOTT directory=TEST_DIR logfile=impdpSCOTT.log  
 
  impdp test/test@db10g tables=SCOTT.EMP network_link=REMOTE_SCOTT directory=TEST_DIR logfile=impdpSCOTT.log  
163번째 줄: 171번째 줄:
 
# Escaped on command line.
 
# Escaped on command line.
 
  expdp ..... flashback_time=\"to_timestamp\(\'09-05-2011 09:00:00\', \'DD-MM-YYYY HH24:MI:SS\'\)\"
 
  expdp ..... flashback_time=\"to_timestamp\(\'09-05-2011 09:00:00\', \'DD-MM-YYYY HH24:MI:SS\'\)\"
Not surprisingly, you can make exports consistent to an earlier point in time by specifying an earlier time or SCN, provided you have enough UNDO space to keep a read consistent view of the data during the export operation.
 
  
If you prefer to use the SCN, you can retrieve the current SCN using one of the following queries.
+
당연한 일이지만, 내보내기 작업 중 데이터의 읽기 일관성을 유지할 수있는 충분한 UNDO 공간이 있으면 이전 시점 또는 SCN을 지정하여 내보내기를 이전 시점으로 일관되게 만들 수 있습니다.
 +
 
 +
SCN을 사용하려면 다음 쿼리 중 하나를 사용하여 현재 SCN을 검색 할 수 있습니다.
  
 
<source lang='sql'>
 
<source lang='sql'>
171번째 줄: 180번째 줄:
 
SELECT DBMS_FLASHBACK.get_system_change_number FROM dual;
 
SELECT DBMS_FLASHBACK.get_system_change_number FROM dual;
 
SELECT TIMESTAMP_TO_SCN(SYSTIMESTAMP) FROM dual;
 
SELECT TIMESTAMP_TO_SCN(SYSTIMESTAMP) FROM dual;
That SCN is then used with the FLASHBACK_SCN parameter.
 
 
</source>
 
</source>
 +
그런 다음 SCN이 FLASHBACK_SCN매개 변수 와 함께 사용됩니다 .
 +
 +
expdp ..... flashback_scn=5474280
 +
다음 쿼리는 타임 스탬프와 SCN 간의 변환에 유용 할 수 있습니다.
  
expdp ..... flashback_scn=5474280
 
The following queries may prove useful for converting between timestamps and SCNs.
 
 
<source lang='sql'>
 
<source lang='sql'>
 
SELECT TIMESTAMP_TO_SCN(SYSTIMESTAMP) FROM dual;
 
SELECT TIMESTAMP_TO_SCN(SYSTIMESTAMP) FROM dual;
182번째 줄: 192번째 줄:
  
 
In 11.2, the introduction of legacy mode means that you can use the CONSISTENT=Y parameter with the expdp utility if you wish.
 
In 11.2, the introduction of legacy mode means that you can use the CONSISTENT=Y parameter with the expdp utility if you wish.
 +
  
 
Miscellaneous Information
 
Miscellaneous Information
Unlike the original exp and imp utilities all data pump ".dmp" and ".log" files are created on the Oracle server, not the client machine.
+
원래의 exp imp 유틸리티와 달리 모든 데이터 펌프 ".dmp"".log"파일은 클라이언트 시스템이 아닌 Oracle 서버에서 작성됩니다.
 +
 
 +
모든 데이터 펌프 조치는 여러 작업 (DBMS_JOB 작업이 아닌 서버 프로세스)에 의해 수행됩니다. 이러한 작업은 고급 대기열을 사용하는 마스터 제어 프로세스에 의해 제어됩니다. 런타임시, 작업 이름 다음에 명명 된 고급 큐 테이블이 작성되어 마스터 제어 프로세스에 의해 사용됩니다. 데이터 펌프 작업이 완료되면 테이블이 삭제됩니다. 작업 및 고급 큐의 이름은 JOB_NAME매개 변수를 사용하여 지정할 수 있습니다 . 클라이언트 프로세스를 취소해도 관련 데이터 펌프 작업이 중지되지 않습니다. 작업 중에 클라이언트에서 "ctrl + c"를 실행하면 클라이언트 출력이 중지되고 명령 프롬프트가 표시됩니다. 이 프롬프트에서 "status"를 입력하면 현재 작업을 모니터 할 수 있습니다.
  
All data pump actions are performed by multiple jobs (server processes not DBMS_JOB jobs). These jobs are controlled by a master control process which uses Advanced Queuing. At runtime an advanced queue table, named after the job name, is created and used by the master control process. The table is dropped on completion of the data pump job. The job and the advanced queue can be named using the JOB_NAME parameter. Cancelling the client process does not stop the associated data pump job. Issuing "ctrl+c" on the client during a job stops the client output and presents a command prompt. Typing "status" at this prompt allows you to monitor the current job.
 
  
 
Export> status
 
Export> status
207번째 줄: 219번째 줄:
 
   Completed Objects: 261
 
   Completed Objects: 261
 
   Total Objects: 261
 
   Total Objects: 261
Data pump performance can be improved by using the PARALLEL parameter. This should be used in conjunction with the "%U" wildcard in the DUMPFILE parameter to allow multiple dumpfiles to be created or read. The same wildcard can be used during the import to allow you to reference multiple files.
+
PARALLEL매개 변수 를 사용하여 데이터 펌프 성능을 향상시킬 수 있습니다 . 이 DUMPFILE매개 변수는 여러 덤프 파일을 만들거나 읽을 수 있도록 매개 변수 의 "% U"와일드 카드와 함께 사용해야합니다 . 가져 오는 동안 동일한 와일드 카드를 사용하여 여러 파일을 참조 할 수 있습니다.
 +
 
  
 
  expdp scott/tiger@db10g schemas=SCOTT directory=TEST_DIR parallel=4 dumpfile=SCOTT_%U.dmp logfile=expdpSCOTT.log
 
  expdp scott/tiger@db10g schemas=SCOTT directory=TEST_DIR parallel=4 dumpfile=SCOTT_%U.dmp logfile=expdpSCOTT.log
  
 
  impdp scott/tiger@db10g schemas=SCOTT directory=TEST_DIR parallel=4 dumpfile=SCOTT_%U.dmp logfile=impdpSCOTT.log
 
  impdp scott/tiger@db10g schemas=SCOTT directory=TEST_DIR parallel=4 dumpfile=SCOTT_%U.dmp logfile=impdpSCOTT.log
The DBA_DATAPUMP_JOBS view can be used to monitor the current jobs.
+
 
 +
DBA_DATAPUMP_JOBS 뷰는 현재 작업을 모니터링 할 수 있습니다.
  
 
  system@db10g> select * from dba_datapump_jobs;
 
  system@db10g> select * from dba_datapump_jobs;
225번째 줄: 239번째 줄:
  
 
   
 
   
Along with the data pump utilities Oracle provide an PL/SQL API. The following is an example of how this API can be used to perform a schema export.
+
데이터 펌프 유틸리티와 함께 ​​Oracle은 PL / SQL API를 제공합니다. 다음은이 API를 사용하여 스키마 내보내기를 수행하는 방법의 예입니다.
  
 
<source lang='sql'>
 
<source lang='sql'>
265번째 줄: 279번째 줄:
 
</source>
 
</source>
  
Once the job has started the status can be checked using.
+
작업이 시작되면 상태를 사용하여 확인할 수 있습니다.
  
 
  system@db10g> select * from dba_datapump_jobs;
 
  system@db10g> select * from dba_datapump_jobs;
 +
 
External Tables (Unloading/Loading Data Using External Tables)
 
External Tables (Unloading/Loading Data Using External Tables)
Oracle have incorporated support for data pump technology into external tables. The ORACLE_DATAPUMP access driver can be used to unload data to data pump export files and subsequently reload it. The unload of data occurs when the external table is created using the "AS" clause.
+
오라클은 데이터 펌프 기술에 대한 지원을 외부 테이블에 통합했습니다.  
 +
ORACLE_DATAPUMP 액세스 드라이버는 데이터 펌프 내보내기 파일에 데이터를 언로드하고 나중에 다시로드 할 수 있습니다.  
 +
외부 테이블이 "AS"절을 사용하여 작성되면 데이터 언로드가 발생합니다.
 +
 
 
<source lang='sql'>
 
<source lang='sql'>
 
CREATE TABLE emp_xt
 
CREATE TABLE emp_xt
281번째 줄: 299번째 줄:
 
</source>
 
</source>
  
The data can then be queried using the following.
+
그런 다음 다음을 사용하여 데이터를 쿼리 할 수 ​​있습니다.
  
 
<source lang='sql'>
 
<source lang='sql'>
 
SELECT * FROM emp_xt;
 
SELECT * FROM emp_xt;
 
</source>
 
</source>
The syntax to create the external table pointing to an existing file is similar, but without the "AS" clause. In this case we will do it the same schema, but this could be in a different schema in the same instance, or in an entirely different instance.
+
 
 +
기존 파일을 가리키는 외부 테이블을 작성하는 구.은 유사하지만 "AS"절이 없습니다. 이 경우 동일한 스키마를 수행하지만 동일한 인스턴스의 다른 스키마 또는 완전히 다른 인스턴스에있을 수 있습니다.
 +
 
 
<source lang='sql'>
 
<source lang='sql'>
 
DROP TABLE emp_xt;
 
DROP TABLE emp_xt;
308번째 줄: 328번째 줄:
 
</source>
 
</source>
  
Creating an external table using the ORACLE_DATAPUMP access driver is restricted to dump files created by the external table unload.
+
ORACLE_DATAPUMP액세스 드라이버를 사용하여 외부 테이블을 작성하는 것은 외부 테이블 언로드로 작성된 파일을 덤프하는 것으로 제한됩니다.
  
 
Secure External Password Store
 
Secure External Password Store
You can also use the secure external password store to provide credentials for data pump.
+
보안 외부 암호 저장소 를 사용하여 데이터 펌프에 대한 자격 증명을 제공 할 수도 있습니다 .
  
 
  $ expdp /@db10g_test tables=EMP,DEPT directory=TEST_DIR dumpfile=EMP_DEPT.dmp logfile=expdpEMP_DEPT.log
 
  $ expdp /@db10g_test tables=EMP,DEPT directory=TEST_DIR dumpfile=EMP_DEPT.dmp logfile=expdpEMP_DEPT.log
 +
 
Help
 
Help
The HELP=Y option displays the available parameters.
+
HELP=Y옵션은 사용 가능한 매개 변수를 표시합니다.
  
expdp
+
expdp
 
  expdp help=y
 
  expdp help=y
  
Export: Release 10.1.0.2.0 - Production on Tuesday, 23 March, 2004 8:33
+
Export: Release 10.1.0.2.0 - Production on Tuesday, 23 March, 2004 8:33
 
 
Copyright (c) 2003, Oracle.  All rights reserved.
 
  
 +
Copyright (c) 2003, Oracle.  All rights reserved.
  
The Data Pump export utility provides a mechanism for transferring data objects
+
Data Pump 익스포트 유틸리티는
between Oracle databases. The utility is invoked with the following command:
+
Oracle 데이터베이스간에 데이터 오브젝트를 전송하는 메커니즘을 제공 합니다. 이 유틸리티는 다음 명령으로 호출됩니다.  
  
 
   Example: expdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp
 
   Example: expdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp
  
You can control how Export runs by entering the 'expdp' command followed
+
'expdp'명령 다음
by various parameters. To specify parameters, you use keywords:
+
에 다양한 매개 변수 를 입력하여 내보내기 실행 방법을 제어 할 수 있습니다 . 매개 변수를 지정하려면 다음
  
 
   Format:  expdp KEYWORD=value or KEYWORD=(value1,value2,...,valueN)
 
   Format:  expdp KEYWORD=value or KEYWORD=(value1,value2,...,valueN)
337번째 줄: 357번째 줄:
 
               or TABLES=(T1:P1,T1:P2), if T1 is partitioned table
 
               or TABLES=(T1:P1,T1:P2), if T1 is partitioned table
  
USERID must be the first parameter on the command line.
+
USERID는 명령 행의 첫 번째 매개 변수 여야합니다.  
  
Keyword              Description (Default)
+
<source>
------------------------------------------------------------------------------
+
키워드 설명 (기본값)  
ATTACH               Attach to existing job, e.g. ATTACH [=job name].
+
--------------------------------------------- ---------------------------------  
CONTENT               Specifies data to unload where the valid keywords are:
+
ATTACH 기존 작업에 부착합니다 (예 : ATTACH [= 작업 이름]).  
                       (ALL), DATA_ONLY, and METADATA_ONLY.
+
CONTENT 유효한 키워드가
DIRECTORY             Directory object to be used for dumpfiles and logfiles.
+
                       (ALL), DATA_ONLY METADATA_ONLY 인 위치를 언로드 할 데이터를 지정합니다 .  
DUMPFILE             List of destination dump files (expdat.dmp),
+
DIRECTORY 덤프 파일 및 로그 파일에 사용될 디렉토리 객체입니다.  
                       e.g. DUMPFILE=scott1.dmp, scott2.dmp, dmpdir:scott3.dmp.
+
DUMPFILE 대상 덤프 파일 (expdat.dmp)의 목록입니다 (
ESTIMATE              Calculate job estimates where the valid keywords are:
+
                       예 : DUMPFILE = scott1.dmp, scott2.dmp, dmpdir : scott3.dmp).  
                       (BLOCKS) and STATISTICS.
+
예상 키워드는 다음과 같습니다.
ESTIMATE_ONLY         Calculate job estimates without performing the export.
+
                       (블록) 및 통계.  
EXCLUDE               Exclude specific object types, e.g. EXCLUDE=TABLE:EMP.
+
ESTIMATE_ONLY 내보내기를 수행하지 않고 작업 추정을 계산하십시오.  
FILESIZE             Specify the size of each dumpfile in units of bytes.
+
EXCLUDE 특정 오브젝트 유형을 제외하십시오 (예 : EXCLUDE = TABLE : EMP).  
FLASHBACK_SCN         SCN used to set session snapshot back to.
+
FILESIZE 각 덤프 파일의 크기를 바이트 단위로 지정하십시오.  
FLASHBACK_TIME       Time used to get the SCN closest to the specified time.
+
FLASHBACK_SCN 세션 스냅 샷을 다시 설정하는 데 사용되는 SCN입니다.  
FULL                  Export entire database (N).
+
FLASHBACK_TIME 지정된 시간과 가장 가까운 SCN을 가져 오는 데 사용되는 시간입니다.  
HELP                  Display Help messages (N).
+
전체 데이터베이스 전체 내보내기 (N).  
INCLUDE               Include specific object types, e.g. INCLUDE=TABLE_DATA.
+
도움말 도움말 메시지 (N)를 표시합니다.  
JOB_NAME             Name of export job to create.
+
INCLUDE 특정 오브젝트 유형을 포함하십시오 (예 : INCLUDE = TABLE_DATA).  
LOGFILE               Log file name (export.log).
+
JOB_NAME 작성할 내보내기 작업의 이름.  
NETWORK_LINK         Name of remote database link to the source system.
+
LOGFILE 로그 파일 이름 (export.log).
NOLOGFILE             Do not write logfile (N).
+
NETWORK_LINK 소스 시스템에 대한 리모트 데이터베이스 링크의 이름.  
PARALLEL             Change the number of active workers for current job.
+
NOLOGFILE 로그 파일 (N)을 쓰지 마십시오.  
PARFILE               Specify parameter file.
+
PARALLEL 현재 작업의 활성 작업자 수를 변경합니다.  
QUERY                 Predicate clause used to export a subset of a table.
+
PARFILE 매개 변수 파일을 지정하십시오.  
SCHEMAS               List of schemas to export (login schema).
+
QUERY 테이블의 서브 세트를 익스포트하는 데 사용되는 술어 절.  
STATUS               Frequency (secs) job status is to be monitored where
+
SCHEMAS 내보낼 스키마 목록 (로그인 스키마).  
                       the default (0) will show new status when available.
+
STATUS 빈도 () 작업 상태가 모니터 될
TABLES               Identifies a list of tables to export - one schema only.
+
                       때 기본값 (0)이 사용 가능한 경우 새 상태를 표시합니다.  
TABLESPACES           Identifies a list of tablespaces to export.
+
TABLES 내보낼 테이블 목록을 식별합니다 (하나의 스키마 만).  
TRANSPORT_FULL_CHECK Verify storage segments of all tables (N).
+
TABLESPACES 반출 할 테이블 공간 목록을 식별합니다.
TRANSPORT_TABLESPACES List of tablespaces from which metadata will be unloaded.
+
TRANSPORT_FULL_CHECK 모든 테이블의 저장 영역 세그먼트를 확인하십시오 (N).  
VERSION               Version of objects to export where valid keywords are:
+
TRANSPORT_TABLESPACES 메타 데이터를 언로드 할 테이블 공간 목록.  
                       (COMPATIBLE), LATEST, or any valid database version.
+
VERSION 유효한 키워드가
 +
                       (COMPATIBLE), LATEST 또는 유효한 데이터베이스 버전 인 경우 익스포트 할 오브젝트 버전.  
  
The following commands are valid while in interactive mode.
+
다음 명령은 대화식 모드에서 유효합니다.  
Note: abbreviations are allowed
+
참고 : 약어는 허용됩니다.
  
Command              Description
+
명령 설명
------------------------------------------------------------------------------
+
------------------------------------------- -----------------------------------  
ADD_FILE             Add dumpfile to dumpfile set.
+
ADD_FILE 덤프 파일을 덤프 파일 세트에 추가하십시오.  
                       ADD_FILE=dumpfile-name
+
                       ADD_FILE =dumpfile-name  
CONTINUE_CLIENT       Return to logging mode. Job will be re-started if idle.
+
CONTINUE_CLIENT 로깅 모드로 돌아갑니다. 유휴 상태이면 작업이 다시 시작됩니다.  
EXIT_CLIENT           Quit client session and leave job running.
+
EXIT_CLIENT 클라이언트 세션을 종료하고 작업을 계속 실행합니다.  
HELP                 Summarize interactive commands.
+
HELP 대화식 명령을 요약하십시오.  
KILL_JOB             Detach and delete job.
+
KILL_JOB 작업 분리 및 삭제.  
PARALLEL             Change the number of active workers for current job.
+
PARALLEL 현재 작업의 활성 작업자 수를 변경합니다.  
                       PARALLEL=.
+
                       평행선 =.  
START_JOB             Start/resume current job.
+
START_JOB 현재 작업 시작 / 다시 시작.  
STATUS               Frequency (secs) job status is to be monitored where
+
STATUS 빈도 () 작업 상태가 모니터 될
                       the default (0) will show new status when available.
+
                       때 기본값 (0)이 사용 가능한 경우 새 상태를 표시합니다.  
                       STATUS=[interval]
+
                       STATUS = [interval]  
STOP_JOB             Orderly shutdown of job execution and exits the client.
+
STOP_JOB 작업 실행을 정상적으로 종료하고 클라이언트를 종료합니다.  
                       STOP_JOB=IMMEDIATE performs an immediate shutdown of the
+
                       STOP_JOB = IMMEDIATE는
                       Data Pump job.
+
                       Data Pump 작업을 즉시 종료합니다 .
Oracle 10g Release 2 (10.2) added the following parameters.
 
 
 
Keyword              Description (Default)
 
------------------------------------------------------------------------------
 
COMPRESSION          Reduce size of dumpfile contents where valid
 
                      keyword values are: (METADATA_ONLY) and NONE.
 
ENCRYPTION_PASSWORD  Password key for creating encrypted column data.
 
SAMPLE                Percentage of data to be exported;
 
  
 
The following commands are valid while in interactive mode.
 
The following commands are valid while in interactive mode.
 
Note: abbreviations are allowed
 
Note: abbreviations are allowed
 +
</source>
  
Command              Description
+
Oracle 10g Release 2 (10.2)는 다음 매개 변수를 추가했습니다.
------------------------------------------------------------------------------
 
FILESIZE              Default filesize (bytes) for subsequent ADD_FILE commands.
 
Oracle 11g Release 1 (11.1) added the following parameters.
 
  
Keyword              Description (Default)
+
<source>
------------------------------------------------------------------------------
+
키워드 설명 (기본값)  
  DATA_OPTIONS         Data layer flags where the only valid value is:
+
--------------------------------------------- ---------------------------------  
                       XML_CLOBS-write XML datatype in CLOB format
+
DATA_OPTIONS 유일한 유효한 값인 데이터 계층 플래그는 다음과 같습니다.
ENCRYPTION           Encrypt part or all of the dump file where valid keyword
+
                       XML_CLOBS-write XML 데이터 유형 CLOB 형식
                       values are: ALL, DATA_ONLY, METADATA_ONLY,
+
ENCRYPTION 유효한 키워드
                       ENCRYPTED_COLUMNS_ONLY, or NONE.
+
                       값이 ALL, DATA_ONLY, METADATA_ONLY,  
ENCRYPTION_ALGORITHM Specify how encryption should be done where valid
+
                       ENCRYPTED_COLUMNS_ONLY 또는 NONE 인 덤프 파일의 일부 또는 전부를 암호화합니다 .  
                       keyword values are: (AES128), AES192, and AES256.
+
ENCRYPTION_ALGORITHM 유효한
ENCRYPTION_MODE       Method of generating encryption key where valid keyword
+
                       키워드 값이 (AES128), AES192 AES256 인 경우 암호화를 수행하는 방법을 지정하십시오 .  
                       values are: DUAL, PASSWORD, and (TRANSPARENT).
+
ENCRYPTION_MODE 유효한 키워드가있는 곳에 암호화 키를 생성하는 방법
REMAP_DATA           Specify a data conversion function,
+
                       값은 DUAL, PASSWORD (TRANSPARENT)입니다.  
                       e.g. REMAP_DATA=EMP.EMPNO:REMAPPKG.EMPNO.
+
REMAP_DATA 데이터 변환 기능을 지정하십시오 (
REUSE_DUMPFILES       Overwrite destination dump file if it exists (N).
+
                       예 : REMAP_DATA = EMP.EMPNO : REMAPPKG.EMPNO).  
TRANSPORTABLE         Specify whether transportable method can be used where
+
REUSE_DUMPFILES 대상 덤프 파일이 존재할 경우이를 겹쳐 씁니다 (N).  
                       valid keyword values are: ALWAYS, (NEVER).
+
TRANSPORTABLE  
 +
                       유효한 키워드 값이 : ALWAYS, (NEVER) 인 경우 전송 가능 메소드를 사용할 수 있는지 지정하십시오 .  
  
The following commands are valid while in interactive mode.
+
다음 명령은 대화식 모드에서 유효합니다.  
Note: abbreviations are allowed
+
참고 : 약어는 허용됩니다.
 +
 
 +
명령 설명
 +
------------------------------------------- -----------------------------------
 +
REUSE_DUMPFILES 대상 덤프 파일이 존재할 경우이를 덮어 씁니다 (N).
 +
</source>
  
Command              Description
+
Oracle 11g Release 2 (11.2)는 도움말 출력의 형식을 변경하고 다음 매개 변수를 추가합니다.
------------------------------------------------------------------------------
 
REUSE_DUMPFILES      Overwrite destination dump file if it exists (N).
 
Oracle 11g Release 2 (11.2) altered the format of the help output as well as adding the following parameters.
 
  
 +
<source>
 
  CLUSTER
 
  CLUSTER
 
Utilize cluster resources and distribute workers across the Oracle RAC.
 
Utilize cluster resources and distribute workers across the Oracle RAC.
441번째 줄: 456번째 줄:
  
 
  SERVICE_NAME
 
  SERVICE_NAME
Name of an active Service and associated resource group to constrain Oracle RAC resources.
+
Oracle RAC 리소스를 제한하는 활성 서비스 및 관련 리소스 그룹의 이름입니다
  
 
  SOURCE_EDITION
 
  SOURCE_EDITION
Edition to be used for extracting metadata.
+
메타 데이타의 추출에 사용하는 에디션
 +
</source>
 +
 
 
Oracle 12c Release 1 (12.1) added the following parameters.
 
Oracle 12c Release 1 (12.1) added the following parameters.
  
 
  ABORT_STEP
 
  ABORT_STEP
Stop the job after it is initialized or at the indicated object.
+
작업이 초기화 된 후 또는 지정된 객체에서 중지하십시오.  
Valid values are -1 or N where N is zero or greater.
+
유효한 값은 -1 또는 N이며 여기서 N은 0 이상입니다.  
N corresponds to the object's process order number in the master table.
+
N은 마스터 테이블에있는 오브젝트의 프로세스 순서 번호에 해당합니다.  
  
 
  ACCESS_METHOD
 
  ACCESS_METHOD
Instructs Export to use a particular method to unload data.
+
특정 메소드를 사용하여 데이터를 언로드하도록 내보내기하도록 지시합니다.  
Valid keyword values are: [AUTOMATIC], DIRECT_PATH and EXTERNAL_TABLE.
+
유효한 키워드 값은 [AUTOMATIC], DIRECT_PATH 및 EXTERNAL_TABLE입니다.  
  
 
  COMPRESSION_ALGORITHM
 
  COMPRESSION_ALGORITHM
Specify the compression algorithm that should be used.
+
사용할 압축 알고리즘을 지정하십시오.  
Valid keyword values are: [BASIC], LOW, MEDIUM and HIGH.
+
유효한 키워드 값은 [BASIC], LOW, MEDIUM 및 HIGH입니다.  
  
 
  ENCRYPTION_PWD_PROMPT
 
  ENCRYPTION_PWD_PROMPT
Specifies whether to prompt for the encryption password.
+
암호화 암호를 묻는 프롬프트를 표시할지 여부를 지정합니다.  
Terminal echo will be suppressed while standard input is read.
+
표준 입력을 읽는 동안 터미널 에코는 표시되지 않습니다.  
  
 
  KEEP_MASTER
 
  KEEP_MASTER
Retain the master table after an export job that completes successfully [NO].
+
성공적으로 완료된 내보내기 작업 후에는 마스터 테이블을 보유하십시오 [NO].  
  
 
  MASTER_ONLY
 
  MASTER_ONLY
Import just the master table and then stop the job [NO].
+
마스터 테이블 만 가져온 다음 작업을 중지하십시오 [NO].  
  
 
  METRICS
 
  METRICS
Report additional job information to the export log file [NO].
+
추가 작업 정보를 내보내기 로그 파일 [NO] 에보고 합니다.  
  
 
  VIEWS_AS_TABLES
 
  VIEWS_AS_TABLES
Identifies one or more views to be exported as tables.
+
테이블로 익스포트 할 하나 이상의 뷰를 식별합니다.  
For example, VIEWS_AS_TABLES=HR.EMP_DETAILS_VIEW.
+
예 : VIEWS_AS_TABLES = HR.EMP_DETAILS_VIEW.
Oracle 12c Release 2 (12.2) added the following parameters.
 
  
STOP_WORKER
+
Oracle 12c Release 2 (12.2)는 다음 매개 변수를 추가했습니다.
Stops a hung or stuck worker.
+
<source>
 +
STOP_WORKER  
 +
걸려 있거나 걸린 작업자를 중지합니다.  
  
TRACE
+
TRACE  
Set trace/debug flags for the current job.
+
현재 작업의 추적 / 디버그 플래그를 설정합니다.
impdp
+
</source>
impdp help=y
+
 
 +
 
 +
impdp
 +
 
 +
<source>
 +
impdp help = y  
 +
 
 +
가져 오기 : 릴리스 10.1.0.2.0 - 2004 년 9 월 11 일 토요일 17:22
 +
 
 +
Copyright (c) 2003, Oracle. 판권 소유.
  
Import: Release 10.1.0.2.0 - Production on Saturday, 11 September, 2004 17:22
 
  
Copyright (c) 2003, Oracle. All rights reserved.
+
Data Pump Import 유틸리티는
 +
Oracle 데이터베이스간에 데이터 오브젝트를 전송하는 메커니즘을 제공 합니다. 이 유틸리티는 다음 명령으로 호출됩니다.  
  
 +
    예제 : impdp scott / tiger DIRECTORY = dmpdir DUMPFILE = scott.dmp
  
The Data Pump Import utility provides a mechanism for transferring data objects
+
'impdp'명령 다음
between Oracle databases. The utility is invoked with the following command:
+
에 다양한 매개 변수 를 입력하여 가져 오기 실행 방법을 제어 할 수 있습니다 . 매개 변수를 지정하려면 다음
  
     Example: impdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp
+
     형식의 키워드를 사용하십시오. 형식 : impdp KEYWORD = value 또는 KEYWORD = (value1, value2, ..., valueN)
 +
    예 : impdp scott / tiger DIRECTORY = dmpdir DUMPFILE = scott.dmp  
  
You can control how Import runs by entering the 'impdp' command followed
+
USERID는 명령 행.
by various parameters. To specify parameters, you use keywords:
 
  
    Format: impdp KEYWORD=value or KEYWORD=(value1,value2,...,valueN)
+
키워드 설명 (기본값)
    Example: impdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp
+
--------------------------------------------- ---------------------------------
 +
ATTACH 기존 작업에 부착합니다 (예 : ATTACH [= 작업 이름]).
 +
CONTENT 유효한 키워드가
 +
                      (ALL), DATA_ONLY 및 METADATA_ONLY 인 로드 할 데이터를 지정합니다 .
 +
DIRECTORY 덤프, 로그 및 sql 파일에 사용될 디렉토리 객체입니다.  
 +
DUMPFILE (expdat.dmp)에서 가져올 덤프 파일 목록입니다 (
 +
                      예 : DUMPFILE = scott1.dmp, scott2.dmp, dmpdir : scott3.dmp).
 +
예상 키워드
 +
                      (BLOCKS) 및 STATISTICS 가 유효한 위치를 계산합니다 .
 +
EXCLUDE 특정 오브젝트 유형을 제외하십시오 (예 : EXCLUDE = TABLE : EMP).
 +
FLASHBACK_SCN 세션 스냅 샷을 다시 설정하는 데 사용되는 SCN입니다.
 +
FLASHBACK_TIME 지정된 시간과 가장 가까운 SCN을 가져 오는 데 사용되는 시간입니다.
 +
FULL 원본 (Y)에서 모든 것을 가져옵니다.
 +
HELP 도움말 메시지 (N)를 표시합니다.
 +
INCLUDE 특정 오브젝트 유형을 포함하십시오 (예 : INCLUDE = TABLE_DATA).
 +
JOB_NAME 작성할 가져 오기 작업의 이름.
 +
LOGFILE 로그 파일 이름 (import.log).
 +
NETWORK_LINK 소스 시스템에 대한 리모트 데이터베이스 링크의 이름.
 +
NOLOGFILE 로그 파일을 쓰지 마십시오.
 +
PARALLEL 현재 작업의 활성 작업자 수를 변경합니다.
 +
PARFILE 매개 변수 파일을 지정하십시오.
 +
QUERY 테이블의 서브 세트를 가져 오는 데 사용되는 술어 절.
 +
REMAP_DATAFILE 모든 DDL 문에서 데이터 파일 참조를 재정의합니다.
 +
REMAP_SCHEMA 한 스키마의 오브젝트가 다른 스키마로로드됩니다.
 +
REMAP_TABLESPACE 테이블 공간 오브젝트가 다른 테이블 공간으로 다시 맵핑됩니다.
 +
REUSE_DATAFILES 테이블 공간이 이미 존재하는 경우 초기화됩니다 (N).
 +
SCHEMAS 가져올 스키마 목록.
 +
SKIP_UNUSABLE_INDEXES 인덱스 사용 불가 상태로 설정된 인덱스를 건너 뜁니다.
 +
SQLFILE 모든 SQL DDL을 지정된 파일에 기록하십시오.
 +
상태 빈도 (초) 작업 상태가 모니터링됩니다.
 +
                      가능한 경우 기본값 (0)이 새로운 상태를 표시합니다.
 +
STREAMS_CONFIGURATION Streams 메타 데이터의로드를 활성화합니다.
 +
TABLE_EXISTS_ACTION 가져온 객체가 이미있는 경우 수행 할 작업입니다.
 +
                      유효한 키워드 : (건너 뛰기), APPEND, REPLACE 및 TRUNCATE
 +
TABLES 가져올 테이블 목록을 식별합니다.
 +
TABLESPACES 반입 할 테이블 공간의 목록을 식별합니다.
 +
TRANSFORM 특정 객체에 적용 (Y / N)하는 메타 데이터 변환입니다.
 +
                      유효한 변환 키워드 : SEGMENT_ATTRIBUTES 및 STORAGE.
 +
                      전의. TRANSFORM = SEGMENT_ATTRIBUTES : N : TABLE.
 +
TRANSPORT_DATAFILES 전송 가능 모드로 반입 할 데이터 파일 목록.
 +
TRANSPORT_FULL_CHECK 모든 테이블의 저장 영역 세그먼트를 확인하십시오 (N).
 +
TRANSPORT_TABLESPACES 메타 데이터가로드 될 테이블 공간 목록.
 +
                      NETWORK_LINK 모드 가져 오기 작업에서만 유효합니다.
 +
VERSION 유효한 키워드가
 +
                      (COMPATIBLE), LATEST 또는 유효한 데이터베이스 버전 인 경우 익스포트 할 오브젝트 버전.
 +
                      NETWORK_LINK 및 SQLFILE에만 유효합니다.  
  
USERID must be the first parameter on the command line.
+
다음 명령은 대화식 모드에서 유효합니다.
 +
참고 : 약어는 허용됩니다.  
  
Keyword              Description (Default)
+
명령 설명 (기본값) 11g
------------------------------------------------------------------------------
+
--------------------------------------- ---------------------------------------
ATTACH                Attach to existing job, e.g. ATTACH [=job name].
+
CONTINUE_CLIENT 로깅 모드로 돌아갑니다. 유휴 상태이면 작업이 다시 시작됩니다.  
CONTENT              Specifies data to load where the valid keywords are:
+
EXIT_CLIENT 클라이언트 세션을 종료하고 작업을 계속 실행합니다.  
                      (ALL), DATA_ONLY, and METADATA_ONLY.
+
HELP 대화식 명령을 요약하십시오.  
DIRECTORY            Directory object to be used for dump, log, and sql files.
+
KILL_JOB 작업 분리 및 삭제.  
DUMPFILE              List of dumpfiles to import from (expdat.dmp),
+
PARALLEL 현재 작업의 활성 작업자 수를 변경합니다.  
                      e.g. DUMPFILE=scott1.dmp, scott2.dmp, dmpdir:scott3.dmp.
+
                       평행선 =.  
ESTIMATE              Calculate job estimates where the valid keywords are:
+
START_JOB 현재 작업 시작 / 다시 시작.  
                       (BLOCKS) and STATISTICS.
+
                      START_JOB = SKIP_CURRENT는
EXCLUDE              Exclude specific object types, e.g. EXCLUDE=TABLE:EMP.
+
                      작업이 중단되었을 때 진행 중이던 작업을 건너 뛰고 작업을 시작합니다 .  
FLASHBACK_SCN        SCN used to set session snapshot back to.
+
STATUS 빈도 () 작업 상태가 모니터 될
FLASHBACK_TIME        Time used to get the SCN closest to the specified time.
+
                       때 기본값 (0)이 사용 가능한 경우 새 상태를 표시합니다.  
FULL                  Import everything from source (Y).
+
                       STATUS = [interval]
HELP                  Display help messages (N).
+
STOP_JOB 작업 실행을 정상적으로 종료하고 클라이언트를 종료합니다.  
INCLUDE              Include specific object types, e.g. INCLUDE=TABLE_DATA.
+
                       STOP_JOB = IMMEDIATE는
JOB_NAME              Name of import job to create.
+
                       Data Pump 작업을 즉시 종료합니다 .
LOGFILE              Log file name (import.log).
+
</source>
NETWORK_LINK          Name of remote database link to the source system.
+
Oracle 10g Release 2 (10.2)는 다음 매개 변수를 추가했습니다.
NOLOGFILE            Do not write logfile.
 
PARALLEL              Change the number of active workers for current job.
 
PARFILE              Specify parameter file.
 
QUERY                Predicate clause used to import a subset of a table.
 
REMAP_DATAFILE        Redefine datafile references in all DDL statements.
 
REMAP_SCHEMA          Objects from one schema are loaded into another schema.
 
REMAP_TABLESPACE      Tablespace object are remapped to another tablespace.
 
REUSE_DATAFILES      Tablespace will be initialized if it already exists (N).
 
SCHEMAS              List of schemas to import.
 
SKIP_UNUSABLE_INDEXES Skip indexes that were set to the Index Unusable state.
 
SQLFILE              Write all the SQL DDL to a specified file.
 
STATUS               Frequency (secs) job status is to be monitored where
 
                       the default (0) will show new status when available.
 
STREAMS_CONFIGURATION Enable the loading of Streams metadata
 
TABLE_EXISTS_ACTION  Action to take if imported object already exists.
 
                       Valid keywords: (SKIP), APPEND, REPLACE and TRUNCATE.
 
TABLES                Identifies a list of tables to import.
 
TABLESPACES          Identifies a list of tablespaces to import.
 
TRANSFORM            Metadata transform to apply (Y/N) to specific objects.
 
                       Valid transform keywords: SEGMENT_ATTRIBUTES and STORAGE.
 
                       ex. TRANSFORM=SEGMENT_ATTRIBUTES:N:TABLE.
 
TRANSPORT_DATAFILES  List of datafiles to be imported by transportable mode.
 
TRANSPORT_FULL_CHECK  Verify storage segments of all tables (N).
 
TRANSPORT_TABLESPACES List of tablespaces from which metadata will be loaded.
 
                      Only valid in NETWORK_LINK mode import operations.
 
VERSION              Version of objects to export where valid keywords are:
 
                      (COMPATIBLE), LATEST, or any valid database version.
 
                      Only valid for NETWORK_LINK and SQLFILE.
 
  
The following commands are valid while in interactive mode.
+
키워드 설명 (기본값)
Note: abbreviations are allowed
+
--------------------------------------------- ---------------------------------
 +
ENCRYPTION_PASSWORD 암호화 된 열 데이터에 액세스하기위한 암호 키입니다.  
 +
                      이 매개 변수는 네트워크 가져 오기 작업에는 유효하지 않습니다.
  
Command              Description (Default)11g
+
Oracle 11g Release 1 (11.1)은 다음 매개 변수를 추가했습니다.
------------------------------------------------------------------------------
 
CONTINUE_CLIENT      Return to logging mode. Job will be re-started if idle.
 
EXIT_CLIENT          Quit client session and leave job running.
 
HELP                  Summarize interactive commands.
 
KILL_JOB              Detach and delete job.
 
PARALLEL              Change the number of active workers for current job.
 
                      PARALLEL=.
 
START_JOB            Start/resume current job.
 
                      START_JOB=SKIP_CURRENT will start the job after skipping
 
                      any action which was in progress when job was stopped.
 
STATUS                Frequency (secs) job status is to be monitored where
 
                      the default (0) will show new status when available.
 
                      STATUS=[interval]
 
STOP_JOB              Orderly shutdown of job execution and exits the client.
 
                      STOP_JOB=IMMEDIATE performs an immediate shutdown of the
 
                      Data Pump job.
 
Oracle 10g Release 2 (10.2) added the following parameter.
 
  
Keyword              Description (Default)
+
키워드 설명 (기본값)  
------------------------------------------------------------------------------
+
--------------------------------------------- ---------------------------------  
  ENCRYPTION_PASSWORD  Password key for accessing encrypted column data.
+
  DATA_OPTIONS 유일한 유효한 값인 데이터 계층 플래그 :
                       This parameter is not valid for network import jobs.
+
                      SKIP_CONSTRAINT_ERRORS - 제약 조건 오류가 없습니다. 치명적인.  
Oracle 11g Release 1 (11.1) added the following parameters.
+
PARTITION_OPTIONS
 +
                       유효한 키워드가 있는 파티션을 변환하는
 +
f}을 지정하십시오 . DEPARTITION, MERGE W (NONE) REMAP_DATA 데이터 변환 기능을 지정하십시오 (
 +
                      예 : REMAP_DATA = EMP.EMPNO : REMAPPKG.EMPNO
 +
REMAP_TABLE). 테이블 이름이 다른 테이블로 다시 맵핑됩니다.
 +
                      예 : REMAP_TABLE = HR.EMPLOYEES : EMPS.
  
Keyword              Description (Default)
+
Oracle 11g Release 2 (11.2)는 도움말 출력의 형식을 변경하고 다음 매개 변수를 추가합니다.
------------------------------------------------------------------------------
 
DATA_OPTIONS          Data layer flags where the only valid value is:
 
                      SKIP_CONSTRAINT_ERRORS-constraint errors are not fatal.
 
PARTITION_OPTIONS    Specify how partitions should be transformed where the
 
                      valid keywords are: DEPARTITION, MERGE and (NONE)
 
REMAP_DATA            Specify a data conversion function,
 
                      e.g. REMAP_DATA=EMP.EMPNO:REMAPPKG.EMPNO
 
REMAP_TABLE          Table names are remapped to another table.
 
                      For example, REMAP_TABLE=HR.EMPLOYEES:EMPS.
 
Oracle 11g Release 2 (11.2) altered the format of the help output as well as adding the following parameters.
 
  
 
  CLUSTER
 
  CLUSTER
Utilize cluster resources and distribute workers across the Oracle RAC.
+
클러스터 리소스를 활용하여 오라클 RAC를 통해 노동자를 배포합니다.  
Valid keyword values are: [Y] and N.
+
유효한 키워드 값은 다음과 같습니다. [Y] N.  
 
 
SERVICE_NAME
 
Name of an active Service and associated resource group to constrain Oracle RAC resources.
 
  
SOURCE_EDITION
+
SERVICE_NAME
Edition to be used for extracting metadata.
+
Oracle RAC 리소스를 제한하는 활성 서비스 및 관련 리소스 그룹의 이름입니다.  
  
TARGET_EDITION
+
SOURCE_EDITION
Edition to be used for loading metadata.
+
메타 데이타의 추출에 사용하는 에디션
Oracle 12c Release 1 (12.1) added the following parameters.
 
  
ABORT_STEP
+
TARGET_EDITION
Stop the job after it is initialized or at the indicated object.
+
메타 데이타의로드에 사용하는 에디션
Valid values are -1 or N where N is zero or greater.
 
N corresponds to the object's process order number in the master table.
 
  
ACCESS_METHOD
+
Oracle 12c Release 1 (12.1)은 다음 매개 변수를 추가했습니다.
Instructs Export to use a particular method to unload data.
+
<source>
Valid keyword values are: [AUTOMATIC], DIRECT_PATH and EXTERNAL_TABLE.
+
ABORT_STEP
 +
작업이 초기화 된 후 또는 지정된 객체에서 중지하십시오.
 +
유효한 값은 -1 또는 N이며 여기서 N은 0 이상입니다.  
 +
N은 마스터 테이블에있는 오브젝트의 프로세스 순서 번호에 해당합니다.  
  
ENCRYPTION_PWD_PROMPT
+
ACCESS_METHOD
Specifies whether to prompt for the encryption password.
+
특정 메소드를 사용하여 데이터를 언로드하도록 내보내기하도록 지시합니다.  
Terminal echo will be suppressed while standard input is read.
+
유효한 키워드 값은 [AUTOMATIC], DIRECT_PATH 및 EXTERNAL_TABLE입니다.  
  
KEEP_MASTER
+
ENCRYPTION_PWD_PROMPT
Retain the master table after an export job that completes successfully [NO].
+
암호화 암호를 묻는 프롬프트를 표시할지 여부를 지정합니다.
 +
표준 입력을 읽는 동안 터미널 에코는 표시되지 않습니다.  
  
MASTER_ONLY
+
KEEP_MASTER
Import just the master table and then stop the job [NO].
+
완료된 내보내기 작업 후에 마스터 테이블을 보유하십시오. [NO].  
  
METRICS
+
MASTER_ONLY
Report additional job information to the export log file [NO].
+
마스터 테이블 만 가져온 다음 작업을 중지하십시오 [NO].  
  
TRANSPORTABLE
+
METRICS
Options for choosing transportable data movement.
+
추가 작업 정보를 내보내기 로그 파일 [NO]에보고하십시오.  
Valid keywords are: ALWAYS and [NEVER].
 
Only valid in NETWORK_LINK mode import operations.
 
  
VIEWS_AS_TABLES
+
TRANSPORTABLE
Identifies one or more views to be imported as tables.
+
이동 가능한 데이터 이동 선택 옵션.  
For example, VIEWS_AS_TABLES=HR.EMP_DETAILS_VIEW.
+
유효한 키워드는 항상 및 [절대]입니다.  
Note that in network import mode, a table name may be appended
+
NETWORK_LINK 모드 가져 오기 작업에서만 유효합니다.  
to the view name.
 
  
Oracle 12c Release 2 (12.2) added the following parameters.
+
VIEWS_AS_TABLES
 +
테이블로 가져올 뷰를 하나 이상 식별합니다.  
 +
예 : VIEWS_AS_TABLES = HR.EMP_DETAILS_VIEW.
 +
네트워크 가져 오기 모드에서는 테이블 이름
 +
을 뷰 이름에 추가 할 수 있습니다 .
 +
</source>
  
REMAP_DIRECTORY
+
Oracle 12c Release 2 (12.2)는 다음 매개 변수를 추가했습니다.
Remap directories when you move databases between platforms.
+
<source>
 +
REMAP_DIRECTORY  
 +
플랫폼간에 데이터베이스를 이동할 때 디렉토리를 다시 매핑하십시오.  
  
STOP_WORKER
+
STOP_WORKER  
Stops a hung or stuck worker.
+
걸려 있거나 걸린 작업자를 중지합니다.  
  
TRACE
+
TRACE  
Set trace/debug flags for the current job.
+
현재 작업의 추적 / 디버그 플래그를 설정합니다.
 +
</source>

2018년 8월 24일 (금) 15:19 판

thumb_up 추천메뉴 바로가기


Oracle Data Pump (expdp, impdp) in Oracle Database 10g, 11g, 12c, 18c (원본 https://oracle-base.com/articles/10g/oracle-data-pump-10g)

Oracle Data Pump는 이전 오라클 버전에서 사용 된 "exp"및 "imp"유틸리티보다 더 새롭고 빠르고 유연한 대안입니다. 기본 가져 오기 및 내보내기 기능 외에도 데이터 펌프는 PL / SQL API를 제공하고 외부 테이블을 지원합니다.

이 기사는 원래 Oracle 10g에 대해 작성되었지만 최신 버전의 Oracle과 관련이 있습니다. 새로운 기능은 별도의 기사로 나뉘지만 하단의 도움말 섹션은 최신 버전으로 업데이트되었습니다.

Getting Started

Table Exports/Imports
Schema Exports/Imports
Database Exports/Imports
INCLUDE and EXCLUDE
CONTENT and QUERY
Network Exports/Imports (NETWORK_LINK)
Flashback Exports
Miscellaneous Information
Data Pump API
External Tables (Unloading/Loading Data Using External Tables)
Secure External Password Store
Help
 expdp
 impdp


Data Pump Enhancements in Oracle Database 11g Release 1 (expdp and impdp) Data Pump Enhancements in Oracle Database 12c Release 1 (expdp and impdp) Data Pump Enhancements in Oracle Database 12c Release 2 (expdp and impdp) SQL Developer 3.1 Data Pump Wizards (expdp, impdp) Transportable Tablespaces Oracle Cloud : Autonomous Data Warehouse (ADW) - Import Data from an Object Store (impdp)

시작하기

예제가 작동하려면 먼저 SCOTT 계정의 잠금을 해제하고 액세스 할 수있는 디렉토리 객체를 만들어야합니다. 디렉토리 객체는 실제 디렉토리에 대한 포인터 일 뿐이며 실제로는 데이터베이스 서버의 파일 시스템에 실제 디렉토리를 만들지 않습니다.

CONN / AS SYSDBA
ALTER USER scott IDENTIFIED BY tiger ACCOUNT UNLOCK;

CREATE OR REPLACE DIRECTORY test_dir AS '/u01/app/oracle/oradata/';
GRANT READ, WRITE ON DIRECTORY test_dir TO scott;

ALL_DIRECTORIES보기를 사용하여 기존 디렉토리를 조회 할 수 있습니다 .

Data Pump는 서버 기반 기술이므로 일반적으로 데이터베이스 서버의 물리적 디렉토리를 가리키는 디렉토리 객체를 처리합니다. 클라이언트 PC의 로컬 파일 시스템에 쓰지 않습니다.

Table Exports/Imports TABLES매개 변수는 내보낼 수있는 테이블을 지정하는 데 사용됩니다. 다음은 테이블 내보내기 및 가져 오기 구문의 예입니다.

expdp scott/tiger@db10g tables=EMP,DEPT directory=TEST_DIR dumpfile=EMP_DEPT.dmp logfile=expdpEMP_DEPT.log

impdp scott/tiger@db10g tables=EMP,DEPT directory=TEST_DIR dumpfile=EMP_DEPT.dmp logfile=impdpEMP_DEPT.log

예를 들어 출력 파일은 expdpEMP_DEPT.log 및 impdpEMP_DEPT.log를 참조하십시오 .

이 TABLE_EXISTS_ACTION=APPEND매개 변수를 사용하면 기존 테이블에 데이터를 가져올 수 있습니다.

Schema Exports/Imports The OWNER parameter of exp has been replaced by the SCHEMAS parameter which is used to specify the schemas to be exported. The following is an example of the schema export and import syntax.

expdp scott/tiger@db10g schemas=SCOTT directory=TEST_DIR dumpfile=SCOTT.dmp logfile=expdpSCOTT.log

impdp scott/tiger@db10g schemas=SCOTT directory=TEST_DIR dumpfile=SCOTT.dmp logfile=impdpSCOTT.log

For example output files see expdpSCOTT.log and impdpSCOTT.log.

Database Exports/Imports FULL매개 변수는 전체 데이터베이스의 수출이 필요하다는 것을 나타냅니다. 다음은 전체 데이터베이스 내보내기 및 가져 오기 구문의 예입니다.

expdp system/password@db10g full=Y directory=TEST_DIR dumpfile=DB10G.dmp logfile=expdpDB10G.log

impdp system/password@db10g full=Y directory=TEST_DIR dumpfile=DB10G.dmp logfile=impdpDB10G.log
For an example output file see expdpDB10G.log.

INCLUDE and EXCLUDE INCLUDE및 EXCLUDE매개 변수는 특정 개체에 내보내기 / 가져 오기를 제한 할 수 있습니다. INCLUDE매개 변수를 사용 하면 지정된 매개 변수가 내보내기 / 가져 오기에 포함됩니다. EXCLUDE매개 변수를 사용 하면 지정된 매개 변수를 제외한 모든 개체가 내보내기 / 가져 오기에 포함됩니다. 두 매개 변수는 상호 배타적이므로 필요한 결과를 얻기 위해 최소한의 항목이 필요한 매개 변수를 사용하십시오. 두 매개 변수의 기본 구문은 동일합니다.


INCLUDE=object_type[:name_clause] [, ...]
EXCLUDE=object_type[:name_clause] [, ...]

다음 코드는 이들을 명령 행 매개 변수로 사용하는 방법을 보여줍니다.

expdp scott/tiger@db10g schemas=SCOTT include=TABLE:"IN ('EMP', 'DEPT')" directory=TEST_DIR dumpfile=SCOTT.dmp logfile=expdpSCOTT.log

expdp scott/tiger@db10g schemas=SCOTT exclude=TABLE:"= 'BONUS'" directory=TEST_DIR dumpfile=SCOTT.dmp logfile=expdpSCOTT.log

매개 변수가 명령 줄에서 사용되는 경우 OS에 따라 다음과 같이 절의 특수 문자를 이스케이프해야 할 수 있습니다. 이 때문에 매개 변수 파일을 사용하는 것이 더 쉽습니다.

include=TABLE:\"IN (\'EMP\', \'DEPT\')\"

단일 가져 오기 / 내보내기에는 매개 변수에 대한 여러 참조가 포함될 수 있으므로 테이블, 뷰 및 일부 패키지를 내보내려면 다음 방법 중 하나를 사용할 수 있습니다.

INCLUDE=TABLE,VIEW,PACKAGE:"LIKE '%API'"
 or
INCLUDE=TABLE
INCLUDE=VIEW
INCLUDE=PACKAGE:"LIKE '%API'"

Multiple objects can be targeted in once statement using the LIKE and IN operators.

EXCLUDE=SCHEMA:"LIKE 'SYS%'"
EXCLUDE=SCHEMA:"IN ('OUTLN','SYSTEM','SYSMAN','FLOWS_FILES','APEX_030200','APEX_PUBLIC_USER','ANONYMOUS')"

The valid object type paths that can be included or excluded can be displayed using the DATABASE_EXPORT_OBJECTS, SCHEMA_EXPORT_OBJECTS, and TABLE_EXPORT_OBJECTS views.

CONTENT and QUERY

CONTENT매개 변수는 EXPORT의 내용을 변경할 수 있습니다. 다음 명령은 METADATA_ONLY 매개 변수 값을 사용 하여 데이터없이 스키마 내용을 내 보냅니다.


expdp system/password@db10g schemas=SCOTT directory=TEST_DIR dumpfile=scott_meta.dmp logfile=expdp.log 
content=METADATA_ONLY

메타 데이터없이 데이터를 캡처하려면 DATA_ONLY매개 변수 값을 사용하십시오 .

expdp system/password@db10g schemas=SCOTT directory=TEST_DIR dumpfile=scott_data.dmp logfile=expdp.log content=DATA_ONLY

QUERY매개 변수는 하나 개 이상의 테이블에서 내 보낸 행을 변경할 수 있습니다. 다음 예제는 전체 데이터베이스 내보내기를 수행하지만 EMP 및 DEPT 테이블의 데이터는 포함하지 않습니다.

expdp system/password@db10g full=Y directory=TEST_DIR dumpfile=full.dmp logfile=expdp_full.log query='SCOTT.EMP:"WHERE deptno=0",SCOTT.DEPT:"WHERE deptno=0"'

명령 줄에서 따옴표를 처리하는 방법은 달성하려는 대상에 따라 다릅니다. 다음은 명령 줄에서 직접 단일 테이블과 여러 테이블에 대해 작동하는 몇 가지 예제입니다.

  1. Single Table. Multiple quoting methods possible.
expdp scott/tiger@pdb1 schemas=scott directory=TEST_DIR dumpfile=scott1.dmp logfile=scott1.log query=SCOTT.EMP:'"WHERE deptno=10"'
expdp scott/tiger@pdb1 schemas=scott directory=TEST_DIR dumpfile=scott2.dmp logfile=scott2.log query=SCOTT.EMP:\"WHERE deptno=10\"
expdp scott/tiger@pdb1 schemas=scott directory=TEST_DIR dumpfile=scott3.dmp logfile=scott3.log query='SCOTT.EMP:"WHERE deptno=10"'
  1. Multiple WHERE clause on each table.
expdp scott/tiger@pdb1 schemas=scott directory=TEST_DIR dumpfile=scott4.dmp logfile=scott4.log query='SCOTT.EMP:"WHERE deptno=10",SCOTT.DEPT:"WHERE deptno=20"'

Network Exports/Imports (NETWORK_LINK) 이 NETWORK_LINK매개 변수는 네트워크 내보내기 / 가져 오기 소스로 사용될 데이터베이스 링크를 식별합니다. 다음 데이터베이스 링크를 사용하여 그 사용법을 보여줍니다.

CONN / AS SYSDBA
GRANT CREATE DATABASE LINK TO test;
CONN test/test
CREATE DATABASE LINK remote_scott CONNECT TO scott IDENTIFIED BY tiger USING 'DEV';

반출의 경우, NETWORK_LINK매개 변수는 소스 서버를 가리키는 데이터베이스 링크를 식별합니다. 개체는 정상적인 방법으로 원본 서버에서 내보내지만 원본 서버의 개체가 아닌 로컬 서버의 디렉터리 개체에 기록됩니다. 로컬 및 원격 사용자 모두 EXP_FULL_DATABASE에게 부여 된 역할이 필요 합니다.

expdp test/test@db10g tables=SCOTT.EMP network_link=REMOTE_SCOTT directory=TEST_DIR dumpfile=EMP.dmp 
logfile=expdpEMP.log

가져 오기의 경우 NETWORK_LINK매개 변수는 원본 서버를 가리키는 데이터베이스 링크도 식별합니다. 차이점은 개체가 덤프 파일에 기록되지 않고 원본에서 로컬 서버로 직접 가져온 것입니다. DUMPFILE매개 변수 가 필요하지 않지만 조작과 연관된 로그에는 여전히 디렉토리 오브젝트가 필요합니다. 로컬 및 원격 사용자 모두 IMP_FULL_DATABASE에게 부여 된 역할이 필요 합니다.

impdp test/test@db10g tables=SCOTT.EMP network_link=REMOTE_SCOTT directory=TEST_DIR logfile=impdpSCOTT.log 
remap_schema=SCOTT:TEST

Flashback Exports The exp utility used the CONSISTENT=Y parameter to indicate the export should be consistent to a point in time. By default the expdp utility exports are only consistent on a per table basis. If you want all tables in the export to be consistent to the same point in time, you need to use the FLASHBACK_SCN or FLASHBACK_TIME parameter.

The FLASHBACK_TIME parameter value is converted to the approximate SCN for the specified time.

expdp ..... flashback_time=systimestamp
  1. In parameter file.
flashback_time="to_timestamp('09-05-2011 09:00:00', 'DD-MM-YYYY HH24:MI:SS')"
  1. Escaped on command line.
expdp ..... flashback_time=\"to_timestamp\(\'09-05-2011 09:00:00\', \'DD-MM-YYYY HH24:MI:SS\'\)\"

당연한 일이지만, 내보내기 작업 중 데이터의 읽기 일관성을 유지할 수있는 충분한 UNDO 공간이 있으면 이전 시점 또는 SCN을 지정하여 내보내기를 이전 시점으로 일관되게 만들 수 있습니다.

SCN을 사용하려면 다음 쿼리 중 하나를 사용하여 현재 SCN을 검색 할 수 있습니다.

SELECT current_scn FROM v$database;
SELECT DBMS_FLASHBACK.get_system_change_number FROM dual;
SELECT TIMESTAMP_TO_SCN(SYSTIMESTAMP) FROM dual;

그런 다음 SCN이 FLASHBACK_SCN매개 변수 와 함께 사용됩니다 .

expdp ..... flashback_scn=5474280

다음 쿼리는 타임 스탬프와 SCN 간의 변환에 유용 할 수 있습니다.

SELECT TIMESTAMP_TO_SCN(SYSTIMESTAMP) FROM dual;
SELECT SCN_TO_TIMESTAMP(5474751) FROM dual;

In 11.2, the introduction of legacy mode means that you can use the CONSISTENT=Y parameter with the expdp utility if you wish.


Miscellaneous Information 원래의 exp 및 imp 유틸리티와 달리 모든 데이터 펌프 ".dmp"및 ".log"파일은 클라이언트 시스템이 아닌 Oracle 서버에서 작성됩니다.

모든 데이터 펌프 조치는 여러 작업 (DBMS_JOB 작업이 아닌 서버 프로세스)에 의해 수행됩니다. 이러한 작업은 고급 대기열을 사용하는 마스터 제어 프로세스에 의해 제어됩니다. 런타임시, 작업 이름 다음에 명명 된 고급 큐 테이블이 작성되어 마스터 제어 프로세스에 의해 사용됩니다. 데이터 펌프 작업이 완료되면 테이블이 삭제됩니다. 작업 및 고급 큐의 이름은 JOB_NAME매개 변수를 사용하여 지정할 수 있습니다 . 클라이언트 프로세스를 취소해도 관련 데이터 펌프 작업이 중지되지 않습니다. 작업 중에 클라이언트에서 "ctrl + c"를 실행하면 클라이언트 출력이 중지되고 명령 프롬프트가 표시됩니다. 이 프롬프트에서 "status"를 입력하면 현재 작업을 모니터 할 수 있습니다.


Export> status

Job: SYS_EXPORT_FULL_01

 Operation: EXPORT
 Mode: FULL
 State: EXECUTING
 Bytes Processed: 0
 Current Parallelism: 1
 Job Error Count: 0
 Dump File: D:\TEMP\DB10G.DMP
   bytes written: 4,096

Worker 1 Status:

 State: EXECUTING
 Object Schema: SYSMAN
 Object Name: MGMT_CONTAINER_CRED_ARRAY
 Object Type: DATABASE_EXPORT/SCHEMA/TYPE/TYPE_SPEC
 Completed Objects: 261
 Total Objects: 261

PARALLEL매개 변수 를 사용하여 데이터 펌프 성능을 향상시킬 수 있습니다 . 이 DUMPFILE매개 변수는 여러 덤프 파일을 만들거나 읽을 수 있도록 매개 변수 의 "% U"와일드 카드와 함께 사용해야합니다 . 가져 오는 동안 동일한 와일드 카드를 사용하여 여러 파일을 참조 할 수 있습니다.


expdp scott/tiger@db10g schemas=SCOTT directory=TEST_DIR parallel=4 dumpfile=SCOTT_%U.dmp logfile=expdpSCOTT.log
impdp scott/tiger@db10g schemas=SCOTT directory=TEST_DIR parallel=4 dumpfile=SCOTT_%U.dmp logfile=impdpSCOTT.log

DBA_DATAPUMP_JOBS 뷰는 현재 작업을 모니터링 할 수 있습니다.

system@db10g> select * from dba_datapump_jobs;
OWNER_NAME                     JOB_NAME                       OPERATION
------------------------------ ------------------------------ ------------------------------
JOB_MODE                       STATE                              DEGREE ATTACHED_SESSIONS
------------------------------ ------------------------------ ---------- -----------------
SYSTEM                         SYS_EXPORT_FULL_01             EXPORT
FULL                           EXECUTING                               1                 1
Data Pump API


데이터 펌프 유틸리티와 함께 ​​Oracle은 PL / SQL API를 제공합니다. 다음은이 API를 사용하여 스키마 내보내기를 수행하는 방법의 예입니다.

SET SERVEROUTPUT ON SIZE 1000000
DECLARE
  l_dp_handle       NUMBER;
  l_last_job_state  VARCHAR2(30) := 'UNDEFINED';
  l_job_state       VARCHAR2(30) := 'UNDEFINED';
  l_sts             KU$_STATUS;
BEGIN
  l_dp_handle := DBMS_DATAPUMP.open(
    operation   => 'EXPORT',
    job_mode    => 'SCHEMA',
    remote_link => NULL,
    job_name    => 'EMP_EXPORT',
    version     => 'LATEST');

  DBMS_DATAPUMP.add_file(
    handle    => l_dp_handle,
    filename  => 'SCOTT.dmp',
    directory => 'TEST_DIR');

  DBMS_DATAPUMP.add_file(
    handle    => l_dp_handle,
    filename  => 'SCOTT.log',
    directory => 'TEST_DIR',
    filetype  => DBMS_DATAPUMP.KU$_FILE_TYPE_LOG_FILE);

  DBMS_DATAPUMP.metadata_filter(
    handle => l_dp_handle,
    name   => 'SCHEMA_EXPR',
    value  => '= ''SCOTT''');

  DBMS_DATAPUMP.start_job(l_dp_handle);

  DBMS_DATAPUMP.detach(l_dp_handle);
END;
/

작업이 시작되면 상태를 사용하여 확인할 수 있습니다.

system@db10g> select * from dba_datapump_jobs;

External Tables (Unloading/Loading Data Using External Tables) 오라클은 데이터 펌프 기술에 대한 지원을 외부 테이블에 통합했습니다. ORACLE_DATAPUMP 액세스 드라이버는 데이터 펌프 내보내기 파일에 데이터를 언로드하고 나중에 다시로드 할 수 있습니다. 외부 테이블이 "AS"절을 사용하여 작성되면 데이터 언로드가 발생합니다.

CREATE TABLE emp_xt
  ORGANIZATION EXTERNAL
   (
     TYPE ORACLE_DATAPUMP
     DEFAULT DIRECTORY test_dir
     LOCATION ('emp_xt.dmp')
   )
   AS SELECT * FROM emp;

그런 다음 다음을 사용하여 데이터를 쿼리 할 수 ​​있습니다.

SELECT * FROM emp_xt;

기존 파일을 가리키는 외부 테이블을 작성하는 구.은 유사하지만 "AS"절이 없습니다. 이 경우 동일한 스키마를 수행하지만 동일한 인스턴스의 다른 스키마 또는 완전히 다른 인스턴스에있을 수 있습니다.

DROP TABLE emp_xt;

CREATE TABLE emp_xt (
  EMPNO     NUMBER(4),
  ENAME     VARCHAR2(10),
  JOB       VARCHAR2(9),
  MGR       NUMBER(4),
  HIREDATE  DATE,
  SAL       NUMBER(7,2),
  COMM      NUMBER(7,2),
  DEPTNO    NUMBER(2))
  ORGANIZATION EXTERNAL (
     TYPE ORACLE_DATAPUMP
     DEFAULT DIRECTORY test_dir
     LOCATION ('emp_xt.dmp')
  );

SELECT * FROM emp_xt;

ORACLE_DATAPUMP액세스 드라이버를 사용하여 외부 테이블을 작성하는 것은 외부 테이블 언로드로 작성된 파일을 덤프하는 것으로 제한됩니다.

Secure External Password Store 보안 외부 암호 저장소 를 사용하여 데이터 펌프에 대한 자격 증명을 제공 할 수도 있습니다 .

$ expdp /@db10g_test tables=EMP,DEPT directory=TEST_DIR dumpfile=EMP_DEPT.dmp logfile=expdpEMP_DEPT.log

Help 이 HELP=Y옵션은 사용 가능한 매개 변수를 표시합니다.

expdp

expdp help=y
Export: Release 10.1.0.2.0 - Production on Tuesday, 23 March, 2004 8:33
Copyright (c) 2003, Oracle.  All rights reserved.
Data Pump 익스포트 유틸리티는 
Oracle 데이터베이스간에 데이터 오브젝트를 전송하는 메커니즘을 제공 합니다. 이 유틸리티는 다음 명령으로 호출됩니다. 
  Example: expdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp
'expdp'명령 다음 
에 다양한 매개 변수 를 입력하여 내보내기 실행 방법을 제어 할 수 있습니다 . 매개 변수를 지정하려면 다음 
  Format:  expdp KEYWORD=value or KEYWORD=(value1,value2,...,valueN)
  Example: expdp scott/tiger DUMPFILE=scott.dmp DIRECTORY=dmpdir SCHEMAS=scott
              or TABLES=(T1:P1,T1:P2), if T1 is partitioned table

USERID는 명령 행의 첫 번째 매개 변수 여야합니다.

키워드 설명 (기본값) 
--------------------------------------------- --------------------------------- 
ATTACH 기존 작업에 부착합니다 (예 : ATTACH [= 작업 이름]). 
CONTENT 유효한 키워드가 
                      (ALL), DATA_ONLY 및 METADATA_ONLY 인 위치를 언로드 할 데이터를 지정합니다 . 
DIRECTORY 덤프 파일 및 로그 파일에 사용될 디렉토리 객체입니다. 
DUMPFILE 대상 덤프 파일 (expdat.dmp)의 목록입니다 ( 
                      예 : DUMPFILE = scott1.dmp, scott2.dmp, dmpdir : scott3.dmp). 
예상 키워드는 다음과 같습니다.
                      (블록) 및 통계. 
ESTIMATE_ONLY 내보내기를 수행하지 않고 작업 추정을 계산하십시오. 
EXCLUDE 특정 오브젝트 유형을 제외하십시오 (예 : EXCLUDE = TABLE : EMP). 
FILESIZE 각 덤프 파일의 크기를 바이트 단위로 지정하십시오. 
FLASHBACK_SCN 세션 스냅 샷을 다시 설정하는 데 사용되는 SCN입니다. 
FLASHBACK_TIME 지정된 시간과 가장 가까운 SCN을 가져 오는 데 사용되는 시간입니다. 
전체 데이터베이스 전체 내보내기 (N). 
도움말 도움말 메시지 (N)를 표시합니다. 
INCLUDE 특정 오브젝트 유형을 포함하십시오 (예 : INCLUDE = TABLE_DATA). 
JOB_NAME 작성할 내보내기 작업의 이름. 
LOGFILE 로그 파일 이름 (export.log).
NETWORK_LINK 소스 시스템에 대한 리모트 데이터베이스 링크의 이름. 
NOLOGFILE 로그 파일 (N)을 쓰지 마십시오. 
PARALLEL 현재 작업의 활성 작업자 수를 변경합니다. 
PARFILE 매개 변수 파일을 지정하십시오. 
QUERY 테이블의 서브 세트를 익스포트하는 데 사용되는 술어 절. 
SCHEMAS 내보낼 스키마 목록 (로그인 스키마). 
STATUS 빈도 (초) 작업 상태가 모니터 될 
                      때 기본값 (0)이 사용 가능한 경우 새 상태를 표시합니다. 
TABLES 내보낼 테이블 목록을 식별합니다 (하나의 스키마 만). 
TABLESPACES 반출 할 테이블 공간 목록을 식별합니다.
TRANSPORT_FULL_CHECK 모든 테이블의 저장 영역 세그먼트를 확인하십시오 (N). 
TRANSPORT_TABLESPACES 메타 데이터를 언로드 할 테이블 공간 목록. 
VERSION 유효한 키워드가 
                      (COMPATIBLE), LATEST 또는 유효한 데이터베이스 버전 인 경우 익스포트 할 오브젝트 버전. 

다음 명령은 대화식 모드에서 유효합니다. 
참고 : 약어는 허용됩니다. 

명령 설명 
------------------------------------------- ----------------------------------- 
ADD_FILE 덤프 파일을 덤프 파일 세트에 추가하십시오. 
                      ADD_FILE =dumpfile-name 
CONTINUE_CLIENT 로깅 모드로 돌아갑니다. 유휴 상태이면 작업이 다시 시작됩니다. 
EXIT_CLIENT 클라이언트 세션을 종료하고 작업을 계속 실행합니다. 
HELP 대화식 명령을 요약하십시오. 
KILL_JOB 작업 분리 및 삭제. 
PARALLEL 현재 작업의 활성 작업자 수를 변경합니다. 
                      평행선 =. 
START_JOB 현재 작업 시작 / 다시 시작. 
STATUS 빈도 (초) 작업 상태가 모니터 될 
                      때 기본값 (0)이 사용 가능한 경우 새 상태를 표시합니다. 
                      STATUS = [interval] 
STOP_JOB 작업 실행을 정상적으로 종료하고 클라이언트를 종료합니다. 
                      STOP_JOB = IMMEDIATE는 
                      Data Pump 작업을 즉시 종료합니다 .

The following commands are valid while in interactive mode.
Note: abbreviations are allowed

Oracle 10g Release 2 (10.2)는 다음 매개 변수를 추가했습니다.

키워드 설명 (기본값) 
--------------------------------------------- --------------------------------- 
DATA_OPTIONS 유일한 유효한 값인 데이터 계층 플래그는 다음과 같습니다. 
                      XML_CLOBS-write XML 데이터 유형 CLOB 형식 
ENCRYPTION 유효한 키워드 
                      값이 ALL, DATA_ONLY, METADATA_ONLY, 
                      ENCRYPTED_COLUMNS_ONLY 또는 NONE 인 덤프 파일의 일부 또는 전부를 암호화합니다 . 
ENCRYPTION_ALGORITHM 유효한 
                      키워드 값이 (AES128), AES192 및 AES256 인 경우 암호화를 수행하는 방법을 지정하십시오 . 
ENCRYPTION_MODE 유효한 키워드가있는 곳에 암호화 키를 생성하는 방법
                      값은 DUAL, PASSWORD 및 (TRANSPARENT)입니다. 
REMAP_DATA 데이터 변환 기능을 지정하십시오 ( 
                      예 : REMAP_DATA = EMP.EMPNO : REMAPPKG.EMPNO). 
REUSE_DUMPFILES 대상 덤프 파일이 존재할 경우이를 겹쳐 씁니다 (N). 
TRANSPORTABLE 
                      유효한 키워드 값이 : ALWAYS, (NEVER) 인 경우 전송 가능 메소드를 사용할 수 있는지 지정하십시오 . 

다음 명령은 대화식 모드에서 유효합니다. 
참고 : 약어는 허용됩니다. 

명령 설명 
------------------------------------------- ----------------------------------- 
REUSE_DUMPFILES 대상 덤프 파일이 존재할 경우이를 덮어 씁니다 (N).

Oracle 11g Release 2 (11.2)는 도움말 출력의 형식을 변경하고 다음 매개 변수를 추가합니다.

CLUSTER
Utilize cluster resources and distribute workers across the Oracle RAC.
Valid keyword values are: [Y] and N.

 SERVICE_NAME
Oracle RAC 리소스를 제한하는 활성 서비스 및 관련 리소스 그룹의 이름입니다

 SOURCE_EDITION
메타 데이타의 추출에 사용하는 에디션

Oracle 12c Release 1 (12.1) added the following parameters.

ABORT_STEP

작업이 초기화 된 후 또는 지정된 객체에서 중지하십시오. 유효한 값은 -1 또는 N이며 여기서 N은 0 이상입니다. N은 마스터 테이블에있는 오브젝트의 프로세스 순서 번호에 해당합니다.

ACCESS_METHOD

특정 메소드를 사용하여 데이터를 언로드하도록 내보내기하도록 지시합니다. 유효한 키워드 값은 [AUTOMATIC], DIRECT_PATH 및 EXTERNAL_TABLE입니다.

COMPRESSION_ALGORITHM

사용할 압축 알고리즘을 지정하십시오. 유효한 키워드 값은 [BASIC], LOW, MEDIUM 및 HIGH입니다.

ENCRYPTION_PWD_PROMPT

암호화 암호를 묻는 프롬프트를 표시할지 여부를 지정합니다. 표준 입력을 읽는 동안 터미널 에코는 표시되지 않습니다.

KEEP_MASTER

성공적으로 완료된 내보내기 작업 후에는 마스터 테이블을 보유하십시오 [NO].

MASTER_ONLY

마스터 테이블 만 가져온 다음 작업을 중지하십시오 [NO].

METRICS

추가 작업 정보를 내보내기 로그 파일 [NO] 에보고 합니다.

VIEWS_AS_TABLES

테이블로 익스포트 할 하나 이상의 뷰를 식별합니다. 예 : VIEWS_AS_TABLES = HR.EMP_DETAILS_VIEW.

Oracle 12c Release 2 (12.2)는 다음 매개 변수를 추가했습니다.

STOP_WORKER 
걸려 있거나 걸린 작업자를 중지합니다. 

TRACE 
현재 작업의 추적 / 디버그 플래그를 설정합니다.


impdp

impdp help = y 

가져 오기 : 릴리스 10.1.0.2.0 - 2004 년 9 월 11 일 토요일 17:22 

Copyright (c) 2003, Oracle. 판권 소유. 


Data Pump Import 유틸리티는 
Oracle 데이터베이스간에 데이터 오브젝트를 전송하는 메커니즘을 제공 합니다. 이 유틸리티는 다음 명령으로 호출됩니다. 

     예제 : impdp scott / tiger DIRECTORY = dmpdir DUMPFILE = scott.dmp 

'impdp'명령 다음 
에 다양한 매개 변수 를 입력하여 가져 오기 실행 방법을 제어 할 수 있습니다 . 매개 변수를 지정하려면 다음 

     형식의 키워드를 사용하십시오. 형식 : impdp KEYWORD = value 또는 KEYWORD = (value1, value2, ..., valueN) 
     예 : impdp scott / tiger DIRECTORY = dmpdir DUMPFILE = scott.dmp 

USERID는 명령 행.

키워드 설명 (기본값) 
--------------------------------------------- --------------------------------- 
ATTACH 기존 작업에 부착합니다 (예 : ATTACH [= 작업 이름]). 
CONTENT 유효한 키워드가 
                      (ALL), DATA_ONLY 및 METADATA_ONLY 인 로드 할 데이터를 지정합니다 . 
DIRECTORY 덤프, 로그 및 sql 파일에 사용될 디렉토리 객체입니다. 
DUMPFILE (expdat.dmp)에서 가져올 덤프 파일 목록입니다 ( 
                      예 : DUMPFILE = scott1.dmp, scott2.dmp, dmpdir : scott3.dmp). 
예상 키워드 
                      (BLOCKS) 및 STATISTICS 가 유효한 위치를 계산합니다 .
EXCLUDE 특정 오브젝트 유형을 제외하십시오 (예 : EXCLUDE = TABLE : EMP). 
FLASHBACK_SCN 세션 스냅 샷을 다시 설정하는 데 사용되는 SCN입니다. 
FLASHBACK_TIME 지정된 시간과 가장 가까운 SCN을 가져 오는 데 사용되는 시간입니다. 
FULL 원본 (Y)에서 모든 것을 가져옵니다. 
HELP 도움말 메시지 (N)를 표시합니다. 
INCLUDE 특정 오브젝트 유형을 포함하십시오 (예 : INCLUDE = TABLE_DATA). 
JOB_NAME 작성할 가져 오기 작업의 이름. 
LOGFILE 로그 파일 이름 (import.log). 
NETWORK_LINK 소스 시스템에 대한 리모트 데이터베이스 링크의 이름. 
NOLOGFILE 로그 파일을 쓰지 마십시오. 
PARALLEL 현재 작업의 활성 작업자 수를 변경합니다.
PARFILE 매개 변수 파일을 지정하십시오. 
QUERY 테이블의 서브 세트를 가져 오는 데 사용되는 술어 절. 
REMAP_DATAFILE 모든 DDL 문에서 데이터 파일 참조를 재정의합니다. 
REMAP_SCHEMA 한 스키마의 오브젝트가 다른 스키마로로드됩니다. 
REMAP_TABLESPACE 테이블 공간 오브젝트가 다른 테이블 공간으로 다시 맵핑됩니다. 
REUSE_DATAFILES 테이블 공간이 이미 존재하는 경우 초기화됩니다 (N). 
SCHEMAS 가져올 스키마 목록. 
SKIP_UNUSABLE_INDEXES 인덱스 사용 불가 상태로 설정된 인덱스를 건너 뜁니다. 
SQLFILE 모든 SQL DDL을 지정된 파일에 기록하십시오. 
상태 빈도 (초) 작업 상태가 모니터링됩니다.
                      가능한 경우 기본값 (0)이 새로운 상태를 표시합니다. 
STREAMS_CONFIGURATION Streams 메타 데이터의로드를 활성화합니다. 
TABLE_EXISTS_ACTION 가져온 객체가 이미있는 경우 수행 할 작업입니다. 
                      유효한 키워드 : (건너 뛰기), APPEND, REPLACE 및 TRUNCATE 
TABLES 가져올 테이블 목록을 식별합니다. 
TABLESPACES 반입 할 테이블 공간의 목록을 식별합니다. 
TRANSFORM 특정 객체에 적용 (Y / N)하는 메타 데이터 변환입니다. 
                      유효한 변환 키워드 : SEGMENT_ATTRIBUTES 및 STORAGE. 
                      전의. TRANSFORM = SEGMENT_ATTRIBUTES : N : TABLE. 
TRANSPORT_DATAFILES 전송 가능 모드로 반입 할 데이터 파일 목록.
TRANSPORT_FULL_CHECK 모든 테이블의 저장 영역 세그먼트를 확인하십시오 (N). 
TRANSPORT_TABLESPACES 메타 데이터가로드 될 테이블 공간 목록. 
                      NETWORK_LINK 모드 가져 오기 작업에서만 유효합니다. 
VERSION 유효한 키워드가 
                      (COMPATIBLE), LATEST 또는 유효한 데이터베이스 버전 인 경우 익스포트 할 오브젝트 버전. 
                      NETWORK_LINK 및 SQLFILE에만 유효합니다. 

다음 명령은 대화식 모드에서 유효합니다. 
참고 : 약어는 허용됩니다. 

명령 설명 (기본값) 11g 
--------------------------------------- ---------------------------------------
CONTINUE_CLIENT 로깅 모드로 돌아갑니다. 유휴 상태이면 작업이 다시 시작됩니다. 
EXIT_CLIENT 클라이언트 세션을 종료하고 작업을 계속 실행합니다. 
HELP 대화식 명령을 요약하십시오. 
KILL_JOB 작업 분리 및 삭제. 
PARALLEL 현재 작업의 활성 작업자 수를 변경합니다. 
                      평행선 =. 
START_JOB 현재 작업 시작 / 다시 시작. 
                      START_JOB = SKIP_CURRENT는 
                      작업이 중단되었을 때 진행 중이던 작업을 건너 뛰고 작업을 시작합니다 . 
STATUS 빈도 (초) 작업 상태가 모니터 될 
                      때 기본값 (0)이 사용 가능한 경우 새 상태를 표시합니다. 
                      STATUS = [interval] 
STOP_JOB 작업 실행을 정상적으로 종료하고 클라이언트를 종료합니다. 
                      STOP_JOB = IMMEDIATE는 
                      Data Pump 작업을 즉시 종료합니다 .

Oracle 10g Release 2 (10.2)는 다음 매개 변수를 추가했습니다.

키워드 설명 (기본값) 
--------------------------------------------- --------------------------------- 
ENCRYPTION_PASSWORD 암호화 된 열 데이터에 액세스하기위한 암호 키입니다. 
                     이 매개 변수는 네트워크 가져 오기 작업에는 유효하지 않습니다.

Oracle 11g Release 1 (11.1)은 다음 매개 변수를 추가했습니다.

키워드 설명 (기본값) 
--------------------------------------------- --------------------------------- 
DATA_OPTIONS 유일한 유효한 값인 데이터 계층 플래그 : 
                     SKIP_CONSTRAINT_ERRORS - 제약 조건 오류가 없습니다. 치명적인. 
PARTITION_OPTIONS 
                     유효한 키워드가 있는 파티션을 변환하는 

f}을 지정하십시오 . DEPARTITION, MERGE W (NONE) REMAP_DATA 데이터 변환 기능을 지정하십시오 (

                     예 : REMAP_DATA = EMP.EMPNO : REMAPPKG.EMPNO 
REMAP_TABLE). 테이블 이름이 다른 테이블로 다시 맵핑됩니다. 
                     예 : REMAP_TABLE = HR.EMPLOYEES : EMPS.

Oracle 11g Release 2 (11.2)는 도움말 출력의 형식을 변경하고 다음 매개 변수를 추가합니다.

CLUSTER

클러스터 리소스를 활용하여 오라클 RAC를 통해 노동자를 배포합니다. 유효한 키워드 값은 다음과 같습니다. [Y] 및 N.

SERVICE_NAME Oracle RAC 리소스를 제한하는 활성 서비스 및 관련 리소스 그룹의 이름입니다.

SOURCE_EDITION 메타 데이타의 추출에 사용하는 에디션

TARGET_EDITION 메타 데이타의로드에 사용하는 에디션

Oracle 12c Release 1 (12.1)은 다음 매개 변수를 추가했습니다.

ABORT_STEP 
작업이 초기화 된 후 또는 지정된 객체에서 중지하십시오. 
유효한 값은 -1 또는 N이며 여기서 N은 0 이상입니다. 
N은 마스터 테이블에있는 오브젝트의 프로세스 순서 번호에 해당합니다. 

ACCESS_METHOD 
특정 메소드를 사용하여 데이터를 언로드하도록 내보내기하도록 지시합니다. 
유효한 키워드 값은 [AUTOMATIC], DIRECT_PATH 및 EXTERNAL_TABLE입니다. 

ENCRYPTION_PWD_PROMPT 
암호화 암호를 묻는 프롬프트를 표시할지 여부를 지정합니다. 
표준 입력을 읽는 동안 터미널 에코는 표시되지 않습니다. 

KEEP_MASTER 
완료된 내보내기 작업 후에 마스터 테이블을 보유하십시오. [NO]. 

MASTER_ONLY 
마스터 테이블 만 가져온 다음 작업을 중지하십시오 [NO]. 

METRICS
추가 작업 정보를 내보내기 로그 파일 [NO]에보고하십시오. 

TRANSPORTABLE 
이동 가능한 데이터 이동 선택 옵션. 
유효한 키워드는 항상 및 [절대]입니다. 
NETWORK_LINK 모드 가져 오기 작업에서만 유효합니다. 

VIEWS_AS_TABLES 
테이블로 가져올 뷰를 하나 이상 식별합니다. 
예 : VIEWS_AS_TABLES = HR.EMP_DETAILS_VIEW. 
네트워크 가져 오기 모드에서는 테이블 이름 
을 뷰 이름에 추가 할 수 있습니다 .

Oracle 12c Release 2 (12.2)는 다음 매개 변수를 추가했습니다.

REMAP_DIRECTORY 
플랫폼간에 데이터베이스를 이동할 때 디렉토리를 다시 매핑하십시오. 

STOP_WORKER 
걸려 있거나 걸린 작업자를 중지합니다. 

TRACE 
현재 작업의 추적 / 디버그 플래그를 설정합니다.