"오라클 rac"의 두 판 사이의 차이
DB CAFE
(→RAC 개념) |
(→RAC 개념) |
||
2번째 줄: | 2번째 줄: | ||
== RAC 개념 == | == RAC 개념 == | ||
+ | * 데이터가 저장되는 공간은 1개 , node 별로 여러개의 인스턴스가 존재 | ||
+ | * 각 서버의 RAC를 작동시키기 위해 CRS 데몬이 각 node 별로 제어. | ||
+ | * CRS를 이용하기 위해 clusterware라는 프로그램 설치 | ||
+ | *: - clusterware가 다운되면 RAC 다운됨. | ||
+ | *: - CRS가 grid로 통합 | ||
+ | *: - CRS : 사용자가 DB에 접속을 할 경우 DB로 접속되는 것이 아니라 CRS로 접속하여 CRS가 node1과 node2 중 어느 node로 접속 할 지 결정 함. | ||
+ | * 이러한 정보들이 OCR이라는 파일에 저장되어 있음. | ||
+ | * rac는 spfile 쓰는 걸 권장 (dynamic sga) | ||
− | + | == RAC 용어 == | |
− | ** | + | === HA (High Availability) === |
− | * | + | * HA 는 DB 하나는 Active 상태로 운영, 나머지 하나는 Standby 상태로 운영 |
− | + | ||
− | + | === RAC Ping 현상 === | |
− | + | * Instance 1 서버 에서 변경 완료 된 데이터를 Instance 2 서버로 가져오기 위해 우선 디스크에 저장 후 해당 데이터를 Instance 2 로 복사해오는 작업 | |
− | + | * 성능 문제 발생됨 | |
− | + | ||
− | + | === Cache Fusion (캐쉬 퓨전) === | |
− | + | # Interconnect 을 통해 Instance 1과 2 를 연결하여 디스크를 거치지 않고 데이터를 교환하는 것 | |
− | + | # 클러스터용 소프트웨어: 캐쉬 퓨전을 해주는 것 | |
+ | |||
+ | === Clusterware === | ||
+ | # crs , Clusterware(클러스터웨어) 라고 부름 | ||
+ | # ASM으로 기능통합. grid 라는 명칭으로 변경 | ||
+ | |||
+ | === OCR (Oracle Cluster Repository) === | ||
+ | # RAC 구성하는 전체 정보 저장하고 있는 디스크 | ||
+ | # 오라클에서 권장하는 OCR 의 최소 크기는 100 MB | ||
+ | |||
+ | === Vote Disk === | ||
+ | # 각 Node 들이 장애가 있는지 없는지를 확인하기 위해서 사용하는 서버별 check 기능 | ||
+ | |||
+ | === cssd 프로세스 === | ||
+ | # 각 Node 들이 정상적으로 작동하고 있는 Interconnect 를 통해 매 초마다 heartbit 를 보내고,각 Node 들은 그에 대한 응답을 보내어 자신이 정상적으로 작동하고 있다고 알려준다. | ||
+ | # 응답이 없다면 cssd 는 2차로 vote disk 를 확인한다. | ||
+ | # 오라클에서는 vote disk 의 최소 크기는 20 MB 로 3개로 다중구성 권장함. | ||
== 네트워크 설정 == | == 네트워크 설정 == |
2024년 8월 20일 (화) 19:17 판
thumb_up 추천메뉴 바로가기
- DBA { Oracle DBA 명령어 > DBA 초급 과정 > DBA 고급 과정 }
- 튜닝 { 오라클 튜닝 목록 }
- 모델링 { 데이터 모델링 가이드 }
목차
1 오라클 RAC[편집]
1.1 RAC 개념[편집]
- 데이터가 저장되는 공간은 1개 , node 별로 여러개의 인스턴스가 존재
- 각 서버의 RAC를 작동시키기 위해 CRS 데몬이 각 node 별로 제어.
- CRS를 이용하기 위해 clusterware라는 프로그램 설치
- - clusterware가 다운되면 RAC 다운됨.
- - CRS가 grid로 통합
- - CRS : 사용자가 DB에 접속을 할 경우 DB로 접속되는 것이 아니라 CRS로 접속하여 CRS가 node1과 node2 중 어느 node로 접속 할 지 결정 함.
- 이러한 정보들이 OCR이라는 파일에 저장되어 있음.
- rac는 spfile 쓰는 걸 권장 (dynamic sga)
1.2 RAC 용어[편집]
1.2.1 HA (High Availability)[편집]
- HA 는 DB 하나는 Active 상태로 운영, 나머지 하나는 Standby 상태로 운영
1.2.2 RAC Ping 현상[편집]
- Instance 1 서버 에서 변경 완료 된 데이터를 Instance 2 서버로 가져오기 위해 우선 디스크에 저장 후 해당 데이터를 Instance 2 로 복사해오는 작업
- 성능 문제 발생됨
1.2.3 Cache Fusion (캐쉬 퓨전)[편집]
- Interconnect 을 통해 Instance 1과 2 를 연결하여 디스크를 거치지 않고 데이터를 교환하는 것
- 클러스터용 소프트웨어: 캐쉬 퓨전을 해주는 것
1.2.4 Clusterware[편집]
- crs , Clusterware(클러스터웨어) 라고 부름
- ASM으로 기능통합. grid 라는 명칭으로 변경
1.2.5 OCR (Oracle Cluster Repository)[편집]
- RAC 구성하는 전체 정보 저장하고 있는 디스크
- 오라클에서 권장하는 OCR 의 최소 크기는 100 MB
1.2.6 Vote Disk[편집]
- 각 Node 들이 장애가 있는지 없는지를 확인하기 위해서 사용하는 서버별 check 기능
1.2.7 cssd 프로세스[편집]
- 각 Node 들이 정상적으로 작동하고 있는 Interconnect 를 통해 매 초마다 heartbit 를 보내고,각 Node 들은 그에 대한 응답을 보내어 자신이 정상적으로 작동하고 있다고 알려준다.
- 응답이 없다면 cssd 는 2차로 vote disk 를 확인한다.
- 오라클에서는 vote disk 의 최소 크기는 20 MB 로 3개로 다중구성 권장함.
1.3 네트워크 설정[편집]
public : 공용 (dba가 접속하는 관리용, 노드에 문제발생시 dba가 관리하기 위해 노드에 접속)
- NAT 나 bridge 로 가도 상관없음
private : 사설 (cache fusion, node1 과 node2를 연결하는 다리(inter connect))
- host-only 로 가야함
instance끼리 정보를 주고 받을때 사용하는 IP
사용자가 쓰는것이 아니라 CRS가 instance끼리 통신하는데 사용
virtual : 가상 (CRS가 서비스를 위해 사용하는 가상 망)
- virtual 은 가상망이므로 public망의 ip를 쓰게됨
같은 대역을 사용하므로 3개의 ip가 필요함 (단, 랜카드는 2개만 필요)
- 1) node1과 node2는 반드시 통신이 되어야 함.
- 2) public 은 public끼리 통신이 되어야 함.
- 3) /etc/hosts 파일에 node1과 node2의 IP를 명시 해야 함.
1.4 디스크 설정[편집]
- 1) File system: HDD가 OS를 관리하는 방식, oracle이 OS에게 디스크의 데이터 I/O를 요청 사용은 편하지만 속도가 느림
- 2) Raw device: 응용프로그램이 OS를 거치지 않고 직접 storage에 I/O 발생 (12c 부터는 지원 하지 않음)
명령=dd LVM으로 나누고 Raw device로 처리 성능은 좋지만 input이 어려움
- 3) ASM: file system과 raw device의 단점을 보완, oracle에서 hdd를 관리하는 방법
10g부터 신규로 등장했지만 검증성의 이유로 10g는 보통 raw device, 11g는 무조건 asm으로 RAC를 구현한다
1.5 RAC 설치순서[편집]
- OS 설치
- 커널설정, 환경설정(node2개를 동시에 올리는 것 까지)
- CRS설치 (10.2.0.1) CRS패치 (10.2.0.4)
- 엔진설치 -> 엔진패치
- netca (네트워크 설정)
- ASM설치 -> 패치 (Raw device일 경우 제외)
- DB생성(dbca)
- 주의사항)
- 각 노드끼리 연결시에 비밀번호를 묻지 않게끔 설정해야 한다
- ssh를 이용해 node1과 node2의 암호가 동일하게 설정
- node1의 작업이 종료되면 복사해서 node2생성 -> 암호파일 동일설정