체크포인트 튜닝과 문제 해결 방안 (문서 ID 1526181.1)


이 문서는 데이터베이스 관리자에게 증분 체크포인트와 체크포인트 튜닝에 관련된 네가지 초기화파라미터의 이해를 돕기 위해 작성되었습니다.

 

FAST_START_MTTR_TARGET

LOG_CHECKPOINT_INTERVAL

LOG_CHECKPOINT_TIMEOUT

LOG_CHECKPOINTS_TO_ALERT


또한 alertlog 에서 볼 수 있는, 몇 가지 체크포인트 관련 에러 ('Checkpoint not Complete' 와 'Cannot Allocate New Log') 에 대해서도 설명하도록 하겠습니다.


상세 내역

 

내용:


체크포인트란 무엇인가?

체크포인트와 성능

증분 체크포인트와 와 관련된 초기화 파라미터들

리두 로그와 체크포인트 

체크포인트 에러의 이해 ("Cannot allocate new log" 와 "Checkpoint not complete")

오라클 출시 정보

체크포인트 문제를 확인하기 위한 Statspack 이용법

 

체크포인트 튜닝과 에러 관리


1.  체크포인트란 무엇인가?


체크포인트는 디스크의 데이터블럭과 메모리의 데이터블럭을 동기시키는 데이터베이스 작업이며, 트랜잭션에 의해 변경된 자료의 일관성을 보장하기 위해 사용됩니다. 관련 트랜잭션의 커밋이 있을 때마다, 디스크에 변경된 데이터블럭을 쓰는 것은 아닙니다.


체크포인트는 다음 두가지 목적을 위해 존재합니다. (1) 자료 일관성 유지 (2) 빠른 데이터베이스 복구

그렇다면 어떻게 복구가 빨리 진행될 수 있을까요? 체크포인트까지 데이터파일에 기록된 모든 내용은 복구 과정에서 redo apply 가 필요 없기 때문입니다. 체크포인트는 장애 (인스턴스 혹은 디스크 장애)로 인한 손실을 예방하기 위해 버퍼 캐시 상의 변경된 모든 내용이 디스크에 기록되는 것을 보장합니다.


Oracle 은 다음 몇가지 조건 하에서만, 더티 버퍼를 디스크에 쓰게됩니다.

- 서버프로세스가 DB_BLOCK_BUFFER 의 1/4 이상을 스캔할 때

- 매 3초 마다

-체크포인트가 발생할 때 마다


다음 조건이 만족할 때, 체크포인트가가 움직입니다.

- 리두 로그 파일의 스위치 시점

- LOG_CHECKPOINT_TIMEOUT 크기만큼 대기할 때

- (LOG_CHECKPOINT_INTERVAL* IO OS 블럭의 크기) 에 해당하는 내용이 현재 리두 로그 파일에 쓰여질 때

- ALTER SYSTEM SWITCH LOGFILE 명령어가 입력될 때

- ALTER SYSTEM CHECKPOINT 명령어가 입력될 때     


Checkpoint 도중 다음과 같은 일이 일어납니다.

- database writer (DBWR) 프로세스가 버퍼 캐시 내부의 변경된 블럭을 모두 디스크에 씁니다.

- Checkpoint process (CKPT) 프로세스가 모든 데이터파일의 헤더에 최신 체크포인트의 SCN 을 기록합니다.


2. 체크포인트와 성능


체크포인트를 생각할 때 관리자는 튜닝 관점에서 딜레마에 빠질 수 밖에 없습니다. 잦은 체크포인트는 빠른 복구를 가능케 하겠지만, 한편 성능저하를 일으키기 때문입니다. 관리자로서 이 상황에 대한 해답은 무엇이 될까요?


데이터파일의 개수가 많은 데이터베이스의 경우라면, 체크포인트가 진행되는 동안 모든 데이터파일 헤더가 잠기게 되고 이는 매우 높은 리소스를 필요로 합니다. 체크포인트의 주기에 대해서는 이처럼 트레이드오프가 있습니다. 더 잦은 체크포인트를 하도록 설정하면, 장애가 발생했을 때에 필요한 복구작업을 더 빠르게 진행할 수 있습니다. 예상치 않은 장애가 발생했을 때,  매우 짧은 시간내에 복구를 완료해야 하는 고객의 경우 이 설정이 선택될 수 있습니다. 하지만 잦은 체크포인트가 대부분에 고객사에 적합하다고 볼 수는 없습니다. 예를 들어 하루 중 5% 시간만 다운타임으로 용납할 수 있는 환경을 상상해보면, 가상의 5% 보다 현실의 95% 에 해당하는 운영시간동안의 최대 성능에 집중하는 것 더 효율적일 수 있기 때문입니다.


이 문서는 독자의 최우선 관심사가 성능, 즉 체크포인트의 빈도를 줄이는데 있다는 가정하에 작성되었습니다.


체크포인트 튜닝에 있어, 다음 4가지의 초기화 파라미터가 관련되어 있습니다.

- FAST_START_MTTR_TARGET

- LOG_CHECKPOINT_INTERVAL

- LOG_CHECKPOINT_TIMEOUT

- LOG_CHECKPOINTS_TO_ALERT


이 파라미터들은 좀 더 뒤에 자세히 다루도록 하겠습니다.


리두 로그 혹은 체크포인트 튜닝의 필요성을 의미하는 메세지인, alertlog 의"checkpoint not complete" 를 어떻게 다룰 것인가에 대해서도 추후 언급하도록 하겠습니다.



3. 증분 체크포인트와 관련된 초기화 파라미터들


주의: 다음에 소개하는 초기화 파라미터에 의해 발생되는 체크포인트보다, 리두 로그 파일의 스위치가 항상 우선시됩니다.


FAST_START_MTTR_TARGET


Oracle 9i 이후 FAST_START_MTTR_TARGET 파라미터는 증분 체크포인트 튜닝에 있어 가장 선호되는 접근방법 중 하나입니다.  사용자는 싱글 인스턴스가 복구에 필요로 하는 시간을 초단위로 FAST_START_MTTR_TARGET 파라미터에 설정하고, Oracle 은 내부의 통계정보에 근거해 자동으로 체크포인트의 간격을 조정합니다.

V$INSTANCE_RECOVERY 뷰의 ESTIMATED_MTTR 컬럼을 통해 현재 계산된 mean time to recover (MTTR) 값을 조회할 수 있습니다. (사용자가 FAST_START_MTTR_TARGET 파라미터를 설정해두지 않았더라도, 이 값은 조회할 수 있습니다.) TARGET_MTTR 컬럼은 현재 시스템에 의해 가장 효율적인 MTTR 값을 의미합니다.

V$MTTR_TARGET_ADVICE 뷰는 현재 운영상태에서 ESTIMATED_MTTR 값으로 인해 초래되는 I/O 건수와 TARGET_MTTR 값으로 초래되는 I/O 의 건수를 나타냅니다. 사용자는 이 뷰를 통해 FAST_START_MTTR_TARGET 설정으로 얻을 있는 빠른 복구시간과 운영 중 성능사이의 트레이드오프를 확인할 수 있습니다.


LOG_CHECKPOINT_INTERVAL


LOG_CHECKPOINT_INTERVAL 파라미터는 증분 체크포인트가 일어나기 전에 필요한 리두 블럭의 개수를 지정합니다. FAST_START_MTTR_TARGET 가 설정된 경우라면, LOG_CHECKPOINT_INTERVAL 파라미터는 설정하지 않거나 0 으로만 설정되어야 합니다.

대부분의 UNIX 환경에서 OS 블럭의 크기는 512 바이트입니다. 따라서 LOG_CHECKPOINT_INTERVAL 의 값을 10,000 으로 설정했을 때, 5,120,000 (5M) 바이트가 될 때까지 증분 체크포인트는 일어나지 않습니다. 만약 리두 로그의 크기가 20M 인 경우라면, 각 리두 로그가 4번의 체크포인트를 필요로 하는 것을 의미합니다.


LOG_CHECKPOINT_INTERVAL 값은 언제 체크포인트가 일어날 것인가에 영향을 주는만큼 신중하게 설정되어야 하고, 리두 로그 파일의 크기가 바뀔 때에도 적절히 변경되어야 합니다. 체크포인트가 일어나는 간격은 예상치 않은 장애가 발생되었을 때 복구에 필요한 시간을 결정하는 중요한 요소입니다. 이 간격이 길수록 장애 발생 후 데이터베이스의 복구작업에 더 많은 시간이 소요되고, 이 간격을 줄이면 데이터베이스 복구는 더 빨리 진행되겠지만 운영시점의 체크포인트에 높은 리소스를 필요로 합니다.


이 파라미터는 또한 데이터베이스 복구 과정의 roll forward 에도 영향을 미치는데, 실제 복구시간은 바로 이 부분이 큰 비중을 차지하기 때문입니다. 기타 다른 고려 사항으로는 장애의 형태(인스턴스 크래쉬 혹은 시스템 크래쉬, 디스크 실패 등) 와 필요한 아카이브된 로그 의 개수 등이 있습니다.


LOG_CHECKPOINT_TIMEOUT


LOG_CHECKPOINT_INTERVAL 파라미터는 증분 체크포인트가 일어나기 전에 필요한 시간(초 단위)를 지정합니다. 다시 말해 버퍼 캐시 안의 더티 버퍼가 얼마나 오랫동안 보관될 것인가를 결정합니다.


체크포인트의 빈도는 예상치 않은 장애가 발생되었을 때 복구작업에 필요한 시간을 결정하는 중요한 인자입니다. 이 간격이 길수록, 장애 발생 후 데이터베이스의 복구가 완료되는데 더 많은 시간이 소요됩니다. 


Oracle 은 트랜잭션량과 상관없이 매 지정된 시간에 체크포인트를 시작하는 LOG_CHECKPOINT_TIMEOUT 대신, LOG_CHECKPOINT_INTERVAL 의 사용을 권장합니다. 트랜잭션의 양이 일정하지 않은 환경에서 LOG_CHECKPOINT_TIMEOUT 파라미터를 설정하면 불필요한 체크포인트가 진행되므로, 이는 최적의 성능유지를 위해 반드시 피해야합니다.


혹시라도 LOG_CHECKPOINT_TIMEOUT 에 설정한 값이 리두 로그 스위치 간격을 의미하지는 않을까? 오해하는 경우가 비일비재하지만, 이는 잘못된 생각입니다. 로그 스위치가 체크포인트를 일으키기는 하지만, 그 반대는 성립하지 않기 때문입니다. 물론 ALTER SYSTEM SWITCH LOGFILE 명령어를 직접 입력하거나 리두 로그의 크기를 변경하는 것이 체크포인트를 발생시키지만, 이는 시간 간격으로 인한 것이 아닙니다. 

참고로 사용중인 온라인 리두 로그 파일의 크기를 변경하는 것은 성능 및 복구작업에 있어 매우 중요합니다. 이에 대해서는 '리두 로그와 체크포인트' 항목을 참고해주시기 바랍니다.


LOG_CHECKPOINTS_TO_ALERT


LOG_CHECKPOINTS_TO_ALERT 파라미터는 사용자의 체크포인트 진행내역이 alert file 에 기록되도록 합니다. 이 정보를 통해 원하는 간격으로 체크포인트가 진행되었지 여부를 확인할 수 있습니다. Oracle9i 이전 버전에서는 STATIC 성격이었습니다. Oracle 은 이 파라미터의 값이 항상 TRUE 일 것을 권장하는데, 이로 인해 초래되는 부하는 무시해도 될 정도로 작습니다.


지금까지 언급된 파라미터에 대하 좀 더 자세한 정보가 필요한 경우, Note:76713.1 를 참고하십시오.


4. 리두 로그와 체크포인트


체크포인트는 리두 로그 스위치가 일어날 때마다 발생합니다. 만약 이전 체크포인트 가 아직 진행중이라면, 로그 스위치에 의한 체크포인트가  이미 진행 중인 것을 오버라이드합니다.


이렇게 잦은 로그 스위치로 인해 초래된 불필요한 체크포인트를 피하려면, 적절한 크기의 리두 로그 파일이 필요합니다. 증분 체크포인트의 목표값과 그 나머지의 차이는 대부분 너무 작은 크기의 온라인 리두 로그 파일에 기인하는데, 실제로 대부분의 로그 스위치가 체크포인트를 기다릴 필요가 없다는 것을 의미하기도 합니다.  따라서 리두 로그파일이 충분히 크도록, 최대 20 분마다 한번씩은 스위치되는 것이 바람직합니다. 너무 작은 리두 로그 파일은 성능저하의 요인이므로, Oracle 은 모든 온라인 리두 로그 파일을 같은 크기로 만들고, 각 인스턴스에 최소한 2개의 로그 그룹을 만들어 둘 것을 권장합니다. Alert log 는 로그 스위치와 체크포인트를 를 모니터링하는 데 있어, 매우 유용합니다.


다음은 alert log 상에서 볼 수 있는 빠른 로그 스위치의 예입니다.

 

    Fri May 16 17:15:43 1997

    Thread 1 advanced to log sequence 1272

      Current log# 3 seq# 1272 mem# 0: /prod1/oradata/logs/redologs03.log

    Thread 1 advanced to log sequence 1273

      Current log# 1 seq# 1273 mem# 0: /prod1/oradata/logs/redologs01.log

    Fri May 16 17:17:25 1997

    Thread 1 advanced to log sequence 1274

      Current log# 2 seq# 1274 mem# 0: /prod1/oradata/logs/redologs02.log

    Thread 1 advanced to log sequence 1275

      Current log# 3 seq# 1275 mem# 0: /prod1/oradata/logs/redologs03.log

    Fri May 16 17:20:51 1997

    Thread 1 advanced to log sequence 1276

      Current log# 1 seq# 1276 mem# 0: /prod1/oradata/logs/redologs01.log


만약 리두 로그 스위치가 매 3분마다 발생한다고 가정해보면, 성능저하는 당연한 결과입니다. 이는 사용자의 업무량에 효과적으로 대응할 수 있도록 충분히 크지 않은 리두 로그임을 가르킵니다.


리두 로그 파일의 적절한 크기를 결정하는 데 필요한 자세한 정보는 Note:1038851.6 를 참고해주십시오. 그리고 실제 온라인 리두 로그 파일의 크기를 변경하는 방법은 Note:1035935.6 를 참고하시기 바랍니다.

 

5. 체크포인트 에러의 이해 ("Cannot allocate new log" 와 "Checkpoint not complete")


때때로 다음과 같은 메세지가 alert log 에 기록되는 것을 볼 수 있습니다.


      Thread 1 advanced to log sequence 248

        Current log# 2 seq# 248 mem# 0: /prod1/oradata/logs/redologs02.log

      Thread 1 cannot allocate new log, sequence 249

      Checkpoint not complete


이 메세지는 리두 로그 파일이 재사용되지 못하고, 체크포인트가 특정 로그에서 계속 정체된 상태를 의미합니다. 체크포인트가 다음 로그로 이동할 때까지 Oracle 은 대기할 수 밖에 없습니다. 이 현상은 DBWR 의 쓰기 동작이 매우 느리거나, 리두 로그 파일의 크기가 너무 작거나 혹은 너무 빠른 로그 스위치가 일어난 결과입니다. 데이터베이스가 체크포인트를 기다리는 상황에서는, 로그 스위치가 완료될 때까지 더 이상 리두가 생성되지 않습니다.

 

6. 오라클 출시 정보


8i 버전에서 FAST_START_IO_TARGET 파라미터를 설정해두면, Oracle 은 복구가 필요할 때 FAST_START_IO_TARGET 값 이상의 데이터 블럭이 사용되지 않도록 체크포인트 주기를 자동적으로 변경했습니다. 이 파라미터는 9i 버전에서 사라졌으며, 대신 FAST_START_MTTR_TARGET 파라미터를 사용할 수 있습니다.

 

7. 체크포인트 문제를 확인하기 위한 Statspack 이용법


15분 정도 간격으로 Statspack 스냅샷을 수집하도록 설정해두면, 체크포인트의 시작/완료시간은 물론 특성 시간동안 진행된 체크포인트로부터에서 얼마나 많은 데이터베이스 버퍼가 디스크에 써졌는지 알아볼 수 있습니다. 물론 리두 활동내역도 살펴볼 수 있는데, 서로 다른 시간대의 보고서를 비교함으로서 체크포인트 성능향상에  대한 힌트를 얻을 수 있습니다.


Statspack 보고서에서 관심가지고 봐야할 정보가 하나 더 있다면, 다음과 같은 대기 이벤트의 내역입니다. 이 대기 이벤트들의 상황에 따라 리두 로그와 체크포인트에 문제가 있는지 손쉽게 인지할 수 있습니다.:


log file switch (checkpoint incomplete)

log file switch (archiving needed)

log file switch/archive

log file switch (clearing log file)

log file switch completion

log switch/archive

log file sync


만약 위 대기 이벤트 중에서 비정상적으로 높은 값이 확인된다면, 온라인 리두 로그 파일의 개수와 크기를 늘리거나 체크포인트 관련 파라미터의 변경이 필요합니다.

Posted by pat98

2015. 1. 16. 18:13 오라클

12c RAC 로그위치



11g rac 는 데몬별로 분리가 되어있었던 반면, 12c에서는 다시 한곳으로 통합되었다.


12c rac log 


$GRID_HOME/base/diag/crs/{hostname}crs/trace

Posted by pat98

SQL*Loader 의 성능 최적화를 위한 몇가지 고려사항이 있습니다 (direct 및 conventional path): 


o 논리적 레코드의 효율적 처리 


- 물리적 레코드와 논리적 레코드의 일대일 매핑. 연결된 경우의 진행을 막습니다. 

- 소프트웨어가 물리적 레코드의 경계를 쉽게 알아낼 수 있도록 합니다. 

그것은 "FIXnnn" 이나 "VAR" 의 문자열 옵션을 사용한 파일 처리를 사용하는 것입니다.

기본(스트림 모드)으로 사용하는 경우, 대부분의 플랫폼에서 (예, UNIX) SQL*Loader 는 개행문자를 위해 각 물리적 레코

드를 스캔해야 합니다. 


o 효율적인 필드 설정 


필드 설정은 데이터파일의 필드를 데이터베이스 내의 컬럼들과 매핑하는 과정입니다.

매핑 함수는 컨트롤파일의 필드 설명에 의해 제어됩니다.

필드 설정은 대부분의 로드에서 가장 CPU 시간을 많이 소모합니다. 


- 탭필드를 사용하지 말고; 위치필드를 사용합니다.

탭필드를 사용하면 SQL*Loader 는 구분자/괄호를 찾기 위하여 입력 데이터를 스캔해야 합니다.

위치 필드를 사용하면 SQL*Loader 는 다음 필드로 가기 위해 포인터만 증가시키면 됩니다.(매우 빠름) 


- 위치 필드를 사용하는 경우 공백을 트리밍하지 마십시오.

PRESERVE BLANKS 옵션을 사용하십시오. 


위의 요점 1과 2의 공통된 주제는 입력 데이터의 스캔을 막는 것임을 유념하여 주시기 바랍니다. 


o 효율적인 변환 


SQL*Loader 가 제공하는 몇가지 변환이 있습니다; 

캐릭터셋 변환과 데이터타입 변환


- 가능하면 캐릭터셋 변환은 피하십시오. SQL*Loader 는 3가지 캐릭터셋을 지원합니다: 


a) 클라이언트 캐릭터셋 (sqlldr 프로세스의 NLS_LANG) 

b) 서버 캐릭터셋 

c) 데이터파일 캐릭터셋 


3가지가 모두 동일할 때 성능이 최적화 됩니다. 특히 b) 와 c) 가 중요합니다. 

이 3가지가 모두 동일하면 캐릭터셋 변환을 위한 메모리 버퍼도 할당되지 않습니다. 


- 멀티 바이트 캐릭터셋 설정을 피하십시오. 


- 데이터타입 변환에 있어서는(SQL*Loader 데이터타입을 데이터베이스컬럼 데이터타입으로) char 에서 char 로의 변환이 효율적입니다. 

만일 데이터파일과 서버에 대하여 같은 캐릭터셋이 사용중이면 변환이 일어나지 않으므로 빠릅니다. 

그러므로 변환을 최소화할 수 있도록 하십시오. 


o 가능하다면 direct path load 에서 "unrecoverable" 옵션을 사용


o conventional path load 라도 네트워크를 통하지 말고 SQL*Loader 를 서버에서 직접 실행


o 데이터베이스 이외의 파일 I/O 를 줄이기


- 가능하면 SILENT=ERRORS 를 사용하여 에러 메시지가 로그에 기록되지 않도록 하십시오. 알려진 중복 로딩인 경우에 유용합니다.


- 또한 BAD=/dev/nul (UNIX) 이나 BAD=NUL (DOS) 사용으로 잘못된 레코드가 I/O 를 생성하지 않도록 하십시오.


o 인덱스와 제약조건을 비활성화. conventional load 의 경우에는 인덱스와 제약조건의 비활성화가 성능을 향상시킬 수 있습니다.


o 큰 바인드 배열의 사용 

conventional load 의 경우 큰 바인드 배열은 데이터베이스 호출 횟수를 제한하여 성능을 증가시킵니다. 

바인드 배열의 크기는 BINDSIZE 파라미터로 지정합니다. 


o 커밋이 너무 자주 일어나지 않도록 ROWS=<n> 사용 

conventional 데이터 로드에서 rows 파라미터는 커밋당 row 의 갯수를 지정합니다. 

더 적은 커밋은 성능을 향상시킬 것입니다. 


o 병렬 로드 사용 

direct path load 에서 사용할 수 있는 이 옵션은 여러 SQL*Loader 작업이 동시에 수행될 수 있도록 합니다.


$ sqlldr control=first.ctl parallel=true direct=true

$ sqlldr control=second.ctl parallel=true direct=true

...


o 고정 너비 데이터 사용 

고정 너비 데이터 포맷은 오라클의 데이터 파싱 프로세스를 단축해줍니다.

데이터 타입과 열 갯수에 따라 단축량은 매우 커질 수 있습니다. 


o 로드 중에 아카이빙 비활성화

특정 환경에서는 이것이 실현 가능하지 않을 수도 있지만, 데이터베이스 아카이빙을 비활성화 하는 것은 상당한 성능 향상을 가져올 수 있습니다.

Posted by pat98

- 증상 /var/log/messages 에 해당 메세지 계속 로깅

Jan 12 17:07:36 exa1 kernel: martian source 255.255.255.255 from 172.16.4.97, on dev eth0

Jan 12 17:07:36 exa1 kernel: ll header: ff:ff:ff:ff:ff:ff:28:d2:44:ae:0d:4b:08:00


-해결책

테스트 결과..

메세지를 로깅하는 모든 DB node 에서..

 

net.ipv4.conf.eth0.log_martians = 0

 

나머지 값들은 설정해도 적용되지 않는다.


net.ipv4.conf.all.log_martians = 0 

net.ipv4.conf.default.log_martians = 0 

net.ipv4.conf.bondib0.log_martians = 0 

 

-적용

sysctl -p /etc/sysctl.conf


-확인

sysctl -a | grep log_martians


-의미

스푸핑된 패킷이나 소스라우팅, Redirect 패킷에 대해 로그파일에 정보를 남기지 않는다.

net.ipv4.conf.eth0.log_martians=0

net.ipv4.conf.lo.log_martians=0

net.ipv4.conf.default.log_martians=0

net.ipv4.conf.all.log_martians=0


default 는 1 (로깅하는 것임)


 

 

Posted by pat98

EM 12.1.0.4 설치시 나는 에러 에러 처리법

 

아래와 같이 처리하고 Retry 하니 잘됨.

=======================================

1. 본인의 경우 MGMT_TABLESPACE 가 autoextend 임에도 불구하고 100% 여서 일단 늘여주었음

직접적인 에러의 원인은 아니라고 봄..예방차원

 

TABLESPACE_NAME      FILE_NAME                                           TOT_KB      FREE_KB USAGE_P
-------------------- --------------------------------------------- ------------ ------------ -------
MGMT_AD4J_TS         /u01/oradata/EMREP/mgmt_ad4j.dbf                   204,800      203,072      .8
MGMT_ECM_DEPOT_TS    /u01/oradata/EMREP/mgmt_depot.dbf                   40,960       19,008    53.6
MGMT_TABLESPACE      /u01/oradata/EMREP/mgmt.dbf                      1,126,400       78,784    93.0
SYSAUX               /u01/oradata/EMREP/sysaux01.dbf                    614,400      193,152    68.6
SYSTEM               /u01/oradata/EMREP/system01.dbf                    716,800        1,408    99.8
UNDOTBS1             /u01/oradata/EMREP/undotbs01.dbf                   952,320            0   100.0
USERS                /u01/oradata/EMREP/users01.dbf                       5,120        4,096    20.0

 

2. 파티션 추가 (요게 중요. 파티션 없음)

SQL> conn sysman/welcome1
Connected.
SQL> exec gc_interval_partition_mgr.partition_maintenance;
SQL> exec mgmt_audit_admin.add_audit_partition;

=======================================

 

EM 12c: Enterprise Manager Cloud Control OMS Installation Fails At OMS Configuration Stage With Message 'ORA-14400: inserted partition key does not map to any partition' Reported In CfmLogger*.log (문서 ID 1663277.1)


Applies to:
Enterprise Manager Base Platform - Version 12.1.0.1.0 and later
Information in this document applies to any platform.

Symptoms
OMS installation fails at oms configuration

From <OMS_HOME>/cfgtoollogs/cfgfw/CfmLogger_<timestamp>.log:
=======================
INFO: oracle.sysman.top.oms:java.sql.SQLException: ORA-14400: inserted partition key does not map to any partition
INFO: oracle.sysman.top.oms:ORA-06512: at "SYSMAN.EM_SELF_UPDATE", line 1537
INFO: oracle.sysman.top.oms:ORA-06512: at line 1
INFO: oracle.sysman.top.oms:

INFO: oracle.sysman.top.oms:OMSCA-ERR:Post deploy operations failed. Check the trace file:/u01/app/em/middleware/oms/cfgtoollogs/omsca/omsca_20140402160051.log
INFO: oracle.sysman.top.oms:
Check the OMS Configuration Assistant logs at: /u01/app/em/middleware/oms/cfgtoollogs/omsca

INFO: oracle.sysman.top.oms:The plug-in OMS Configuration has failed its perform method
=======================

Cause
The Partitions are not created in the Database used as Repository and hence oms configuration fail due to missing partitions. This issue is documented in following bug:
BUG 18307758 - AUDIT PARTITIONS NOT CREATED ON EM INSTALL, WHEN DB TEMPLATE IS USED

 

Solution
1. Run the query below as SYSMAN to manually add partitions
    SQL> exec gc_interval_partition_mgr.partition_maintenance;
    SQL> exec mgmt_audit_admin.add_audit_partition;

 

2. Resume OMS installation
    If OUI is open, click on Retry on the OUI
    If OUI is closed, then resume the installation by executing the following command:
        $ export ORACLE_HOME=<OMS_HOME>
        $ <OMS_HOME>/oui/bin/runConfig.sh ORACLE_HOME=<oms_home_path> MODE=perform ACTION=configure COMPONENT_XML={encap_oms.1_0_0_0_0.xml}

Posted by pat98

2014. 12. 3. 13:00 오라클

12.1.0.2 설치 bug


oracle 12c 12.1.0.2 버전 설치시에

 

- grid 설치시 1번노드만 설치가 성공하고 나머지 2,3번은 실패함.

 

  자료확인해 보면 아래와 같은 버그임.

CLSRSC-507: The root script cannot proceed on this node <node-n> because either the first-node operations have not completed on node <node-1> or there was an error in obtaining the status of the first-node operations. (문서 ID 1919825.1)

* oracle AMDU (ASM Metadata Dump Utility) 가 디스크를 읽지 못해서 나는 버그임.

 

우선 확인 및 해결절차

 

1. 1번노드에서 성공적으로 root script가 수행되었는지 확인

<NEW_GI_HOME>/cfgtoollogs/crsconfig/rootcrs_<node>_<timestamp>.log

CLSRSC-325: Configure Oracle Grid Infrastructure for a Cluster ... succeeded


2. 다른 노드를 살펴보면 root script 가 ocrdump 가 실행되지 못해서 실패했다.

<NEW_GI_HOME>/cfgtoollogs/crsconfig/rootcrs_<node>_<timestamp>.log

2014-09-04 13:45:34: ASM_DISKS=ORCL:OCR01,ORCL:OCR02,ORCL:OCR03
....
2014-09-04 13:46:04: Check the existence of global ckpt 'checkpoints.firstnode'
2014-09-04 13:46:04: setting ORAASM_UPGRADE to 1
2014-09-04 13:46:04: Invoking "/product/app/12.1.0.2/grid/bin/cluutil -exec -keyexists -key checkpoints.firstnode"
2014-09-04 13:46:04: trace file=/product/app/grid/crsdata/sipr0-db04/crsconfig/cluutil8.log
2014-09-04 13:46:04: Running as user grid: /product/app/12.1.0.2/grid/bin/cluutil -exec -keyexists -key checkpoints.firstnode
2014-09-04 13:46:04: s_run_as_user2: Running /bin/su grid -c ' echo CLSRSC_START; /product/app/12.1.0.2/grid/bin/cluutil -exec -keyexists -key checkpoints.firstnode '
2014-09-04 13:46:05: Removing file /tmp/fileRiu5NI
2014-09-04 13:46:05: Successfully removed file: /tmp/fileRiu5NI
2014-09-04 13:46:05: pipe exit code: 256
2014-09-04 13:46:05: /bin/su exited with rc=1

2014-09-04 13:46:05: oracle.ops.mgmt.rawdevice.OCRException: PROC-32: Cluster Ready Services on the local node is not running Messaging error [gipcretConnectionRefused] [29]

2014-09-04 13:46:05: Cannot get OCR key with CLUUTIL, try using OCRDUMP.
2014-09-04 13:46:05: Check OCR key using ocrdump
2014-09-04 13:46:22: ocrdump output: PROT-302: Failed to initialize ocrdump

2014-09-04 13:46:22: The key pair with keyname: SYSTEM.rootcrs.checkpoints.firstnode does not exist in OCR.
2014-09-04 13:46:22: Checking a remote host sipr0-db03 for reachability...


3. ocrdump fails due to error AMDU-00201 and AMDU-00200 를 확인다.

<ADR_HOME>/crs/<node>/crs/trace/ocrdump_<pid>.trc

2014-09-04 13:46:14.044274 : OCRASM: proprasmo: ASM instance is down. Proceed to open the file in dirty mode.

CLWAL: clsw_Initialize: Error [32] from procr_init_ext
CLWAL: clsw_Initialize: Error [PROCL-32: Oracle High Availability Services on the local node is not running Messaging error [gipcretConnectionRefused] [29]] from procr_init_ext
2014-09-04 13:46:14.050831 : GPNP: clsgpnpkww_initclswcx: [at clsgpnpkww.c:351] Result: (56) CLSGPNP_OCR_INIT. (:GPNP01201:)Failed to init CLSW-OLR context. CLSW Error (3): CLSW-3: Error in the cluster registry (OCR) layer. [32] [PROCL-32: Oracle High Availability Services on the local node is not running Messaging error [gipcretConnectionRefused] [29]]
2014-09-04 13:46:14.093544 : OCRASM: proprasmo: Error [13] in opening the GPNP profile. Try to get offline profile
2014-09-04 13:46:16.210708 : OCRRAW: kgfo_kge2slos error stack at kgfolclcpi1: AMDU-00200: Unable to read [32768] bytes from Disk N0050 at offset [140737488355328]
AMDU-00201: Disk N0050: '/dev/sdg'
AMDU-00200: Unable to read [32768] bytes from Disk N0049 at offset [140737488355328]
AMDU-00201: Disk N0049: '/dev/sdf'
AMDU-00200: Unable to read [32768] bytes from Disk N0048 at offset [140737488355328]
AMDU-00201: Disk N0048: '/dev/sde'
AMDU-00200: Unable to read [32768] bytes from Disk N0035 at offset [140737488355328]
AMDU-00201: Disk N0035: '/dev/sdaw'
AMDU-00200: Unable to read [32768] bytes from Disk N0024 at offset [140737488355328]
AMDU-00201: Disk N0024: '/dev/sdaq'
....

2014-09-04 13:46:16.212934 : OCRASM: proprasmo: Failed to open file in dirty mode

2014-09-04 13:46:16.212964 : OCRASM: proprasmo: dgname is [OCRVOTE] : discoverystring []
2014-09-04 13:46:16.212990 : OCRASM: proprasmo: Error in open/create file in dg [OCRVOTE]
OCRASM: SLOS : SLOS: cat=8, opn=kgfolclcpi1, dep=200, loc=kgfokge

2014-09-04 13:46:16.213075 : OCRASM: ASM Error Stack :

....
2014-09-04 13:46:22.690905 : OCRASM: proprasmo: kgfoCheckMount returned [7]
2014-09-04 13:46:22.690933 : OCRASM: proprasmo: The ASM instance is down
2014-09-04 13:46:22.692150 : OCRRAW: proprioo: Failed to open [+OCRVOTE/sipr0-dbhv1/OCRFILE/registry.255.857389203]. Returned proprasmo() with [26]. Marking location as UNAVAILABLE.
2014-09-04 13:46:22.692204 : OCRRAW: proprioo: No OCR/OLR devices are usable
2014-09-04 13:46:22.692239 : OCRRAW: proprinit: Could not open raw device
2014-09-04 13:46:22.692561 : default: a_init:7!: Backend init unsuccessful : [26]
2014-09-04 13:46:22.692777 : OCRDUMP: Failed to initailized OCR context. Error [PROC-26: Error while accessing the physical storage
] [26].
2014-09-04 13:46:22.692822 : OCRDUMP: Failed to initialize ocrdump stage 2
2014-09-04 13:46:22.692864 : OCRDUMP: Exiting [status=failed]...

 

4. Case가 2~3가지 정도 되는데 해당 Case 인 경우 patch 18456643 를 받아서 적용해준다.

  patch 는 모든 노드에 다 적용해 주어야 한다.(이게 거지같은게 이미 grid가 설치되어 있어야 패치가 적용되므로 어차피 한번은 설치를
  실패하고 진행해야 함)
   
5.  이미 작업이 실패해서 1번 노드에 grid 가 올라와 있으므로 deconfig 해주고 패치 일괄적용.

root.sh 를 자동으로 모든노드에서 수행하게 했을 경우 2번,3번 노드에 실패한 정보가 있으므로 역시 2번,3번도 deconfig 해줘야 한다.

(설치시 root.sh 를 자동으로 수행하는 옵션이 있는데 절대 하지 말자..노드순서가 꼬임)

2번,3번에서
$GRID_HOME/crs/install/rootcrs.pl -verbose -deconfig -force

1번에서
$GRID_HOME/crs/install/rootcrs.pl -verbose -deconfig -force -lastnode

deconfig 안해주면 cluster patch 정보가 맞지 않아 기동시 다음과 같은 에러 발생

>  CRS-6706: Oracle Clusterware Release patch level ('4137922036') does not match Software patch level ('0'). Oracle Clusterware cannot be started.

(문서 ID 1639285.1)
해당 명령어로 각 노드의 패치를 확인한다.

<GI_HOME>/bin/kfod op=patches
<GI_HOME>/bin/kfod op=patchlvl


export ORACLE_HOME=/oragrid/product/12.1.0.2
opatch apply /oragrid/18456643

opatch rollback -id 18456643

버전 같은데 동일한 에러날 경우 reboot 하면 해결된다.


6. 다시 순서대로 root.sh 를 돌려서 실행한다.

root.sh 이후의 실패해서 GUI 화면이 사라졌으므로 config 작업은

$GRID_HOME/cfgtoollogs/configToolAllCommands 을 수행해서 마무리 한다.

Posted by pat98

2014. 10. 23. 14:39 오라클

Exadata es.preperties



Default 환경이 아닌 사이트 설치환경에 맞게 Customizing 하여 사용할수 있다.

===================================


[EXA1]root@exa1:/opt/oracle.SupportTools/onecommand/linux-x64/properties# cat es.properties

# Common properties shared across all platforms

#


DBFSDGNAME=DBFS_DG

ONECMDDIR=/opt/oracle.SupportTools/onecommand

SOFTWAREDIR={ONECMDDIR}/Software

EXACHKDIR=/opt/oracle.SupportTools/exachk


# This path changes before we switch to production

#GRIDINSTALLERPATH=clusterware/Disk1

GRIDINSTALLERPATH=grid

GRIDINSTALLERPATHSHIPHOME=clusterware/Disk1

DBINSTALLERPATH=database

DBINSTALLERPATHSHIPHOME=database/Disk1


GRID112040SuccessMessage=The installation of Oracle Grid Infrastructure 11g was successful.



PATCHDIR={SOFTWAREDIR}/patches


CELLDIR=/opt/oracle.cellos

EXADATAFILE=/opt/oracle.cellos/ORACLE_CELL_OS_IS_SETUP


CHARSET=AL32UTF8

NLSCHARSET=AL16UTF16

SYSAUXSIZE=16384

TEMPSIZE=32767

REDOFILESIZE=4096



PGA_MAX_SIZE_X4800=4G

PGA_MAX_SIZE_SSC=8G

PGA_MAX_SIZE_VM_SMALL=1G

AUSIZE=4


Avm121000TemplateFileName=AVM_X2_2_121000.dbt

AVMSYSUSER=AVMSYSUSER


# CLUSTERWARE PARAMETERS

## default is 60

## Best practice is 60

CSSMISSCOUNTVALUE=60

## default is 0

CSSDIAGWAITVALUE=13


# Clusterware installation zip files - should be in WorkDir


### Linux


CRS_LinuxPhysical_11.2.0.2=p10098816_112020_Linux-x86-64_3of7.zip

CRS_LinuxPhysical_11.2.0.3=p10404530_112030_Linux-x86-64_3of7.zip

CRS_LinuxPhysical_11.2.0.4=p13390677_112040_Linux-x86-64_3of7.zip


# 12.1 stuff - get zip file name from shiphome

# linuxamd64_12c_database_1of2.zip, linuxamd64_12c_database_2of2.zip,

#CRS_LinuxPhysical_12.1.0.0=p99999999_121010_Linux-x86-64_1of7.zip,\

  #p99999999_121010_Linux-x86-64_2of7.zip,

CRS_LinuxPhysical_12.1.0.0=linuxamd64_12c_grid_1of2.zip,\

  linuxamd64_12c_grid_2of2.zip

CRS_LinuxPhysical_12.1.0.1=linuxamd64_12c_grid_1of2.zip,\

  linuxamd64_12c_grid_2of2.zip


### Solaris Intel


CRS_SolarisPhysical_11.2.0.2=p10098816_112020_Solaris86-64_3of6.zip

CRS_SolarisPhysical_11.2.0.3=p10404530_112030_Solaris86-64_3of6.zip

CRS_SolarisPhysical_11.2.0.4=p13390677_112040_Solaris86-64_3of6.zip

CRS_SolarisPhysical_12.1.0.0=solaris.x64_12cR1_grid_1of2.zip,\

  solaris.x64_12cR1_grid_2of2.zip

CRS_SolarisPhysical_12.1.0.1=solaris.x64_12cR1_grid_1of2.zip,\

  solaris.x64_12cR1_grid_2of2.zip


### Solaris Sparc


CRS_SolarisSSC_11.2.0.2=p10098816_112020_SOLARIS64_3of7.zip

CRS_SolarisSSC_11.2.0.3=p10404530_112030_SOLARIS64_3of7.zip

CRS_SolarisSSC_11.2.0.4=p13390677_112040_SOLARIS64_3of7.zip

CRS_SolarisSSC_12.1.0.0=solaris.sparc64_12cR1_grid_1of2.zip,\

  solaris.sparc64_12cR1_grid_2of2.zip

CRS_SolarisSSC_12.1.0.1=solaris.sparc64_12cR1_grid_1of2.zip,\

  solaris.sparc64_12cR1_grid_2of2.zip


# Database installation zip files


### Linux


DB_LinuxPhysical_11.2.0.2=p10098816_112020_Linux-x86-64_1of7.zip,\

  p10098816_112020_Linux-x86-64_2of7.zip

DB_LinuxPhysical_11.2.0.3=p10404530_112030_Linux-x86-64_1of7.zip,\

  p10404530_112030_Linux-x86-64_2of7.zip

DB_LinuxPhysical_11.2.0.4=p13390677_112040_Linux-x86-64_1of7.zip,\

  p13390677_112040_Linux-x86-64_2of7.zip

#DB_LinuxPhysical_12.1.0.0=p99999999_121010_Linux-x86-64_3of7.zip,\

  #p99999999_121010_Linux-x86-64_4of7.zip

DB_LinuxPhysical_12.1.0.0=linuxamd64_12c_database_1of2.zip,\

  linuxamd64_12c_database_2of2.zip

DB_LinuxPhysical_12.1.0.1=linuxamd64_12c_database_1of2.zip,\

  linuxamd64_12c_database_2of2.zip



### Solaris Intel


DB_SolarisPhysical_11.2.0.2=p10098816_112020_Solaris86-64_1of6.zip,\

 p10098816_112020_Solaris86-64_2of6.zip

DB_SolarisPhysical_11.2.0.3=p10404530_112030_Solaris86-64_1of6.zip,\

    p10404530_112030_Solaris86-64_2of6.zip,\

    p10404530_112030_Solaris86-64_3of6.zip

DB_SolarisPhysical_11.2.0.4=p13390677_112040_Solaris86-64_1of6.zip,\

  p13390677_112040_Solaris86-64_2of6.zip

DB_SolarisPhysical_12.1.0.0=solaris.x64_12cR1_database_1of2.zip,\

  solaris.x64_12cR1_database_2of2.zip

DB_SolarisPhysical_12.1.0.1=solaris.x64_12cR1_database_1of2.zip,\

  solaris.x64_12cR1_database_2of2.zip


### Solaris Sparc


DB_SolarisSSC_11.2.0.2=p10098816_112020_SOLARIS64_1of7.zip,\

  p10098816_112020_SOLARIS64_2of7.zip

DB_SolarisSSC_11.2.0.3=p10404530_112030_SOLARIS64_1of7.zip,\

  p10404530_112030_SOLARIS64_2of7.zip

DB_SolarisSSC_11.2.0.4=p13390677_112040_SOLARIS64_1of7.zip,\

  p13390677_112040_SOLARIS64_2of7.zip

DB_SolarisSSC_12.1.0.0=solaris.sparc64_12cR1_database_1of2.zip,\

  solaris.sparc64_12cR1_database_2of2.zip

DB_SolarisSSC_12.1.0.1=solaris.sparc64_12cR1_database_1of2.zip,\

  solaris.sparc64_12cR1_database_2of2.zip


# Bundle patch list for 11.2.0.2, format is patch#:bundlepatch# cause we can

# skip index numbers and we're not always consistent

BUNDLE_PATCH_LIST_112020=13395584:13,13556724:14,13603787:15,13837673:16,\

  14084153:17:14461970:18,15835121:19,16310984:20

# Bundle patch list for 11.2.0.3

# 7/19/13 Adding BP20 , 10/17/13 Adding BP21

BUNDLE_PATCH_LIST_112030=13556853:3,13667791:4,13734832:5,13870089:6,13992240:7,\

  14103267:8,14229857:9,14352236:10,14474780:11,14662263:12,14786157:13,15835102:14, \

  16039087:15,16233552:16,16474946:17,16627873:18,16784993:19,16869210:20, \

  17395890:21,17747147:22



# Bundle patch list for 11.2.0.4

BUNDLE_PATCH_LIST_112040=17628025:1,17838803:2,17904156:3


# bundle patch list for 12.

BUNDLE_PATCH_LIST_121000=17272829:1,17735306:2

BUNDLE_PATCH_LIST_121010=17272829:1,17735306:2


#ONE OFF PATCHES

# - hyphen signifies the patch delimiter

# : colon signifies the BP the preceding patches are applicable to

# , comma separates BP releases

#samples

# 2 patches for BP10 1 for BP11

# 21222-21223:10,21224:11

#

ONEOFF_PATCH_LIST_112020_GRID=

ONEOFF_PATCH_LIST_112020_RAC=

#

# if 11.2.0.3 and  BP21 then  ensure they apply  16057129 - see bug 18070968

ONEOFF_PATCH_LIST_112030_GRID=

ONEOFF_PATCH_LIST_112030_RAC=16057129:21

# 17612092  is added ontop of base 11.2.0.4 base

#   it contains(  17313525, 17265217, 17546761, 14852021, 16863422, 16837842, 17446237  17465741, 17443671)

#   and is applicable to  both 11.2..4 homes

# 17629416 is a merge request on top of 11.2.0.4.0 for bugs 16346413 17065496 17551223

#   and is applicable to the grid home only

ONEOFF_PATCH_LIST_112040_GRID=17612092-17629416:0

ONEOFF_PATCH_LIST_112040_RAC=17612092:0

# 17272829 - Upcoming 12.1.0.1 bundle/PSU whatever we're calling it now. Changed bundle.xml format

# and also requires new Opatch


# if 12.1.0.1 and PSU1 then ensure they appply  16057129 - see bug 18070968

ONEOFF_PATCH_LIST_121010_GRID=

ONEOFF_PATCH_LIST_121010_RAC=16057129:1


ORAINSTROOT=orainstRoot.sh

ROOTSH=root.sh

ROOTPASSWORD=welcome1


OPATCHNUM=6880880

BUNDLEFILENAME=bundle.xml

OCMRSPFILE=onecommand-default-ocm.rsp


CELLIPINITDIR=/etc/oracle/cell/network-config


LINUXPHYSICAL=LinuxPhysical

LINUXDOM0=LinuxDom0

LINUXGUEST=LinuxGuest

SOLARISPHYSCIAL=SolarisPhysical

SOLARISSPARCPHYSICAL=SolarisSSC

SOLARISLDOM=SolarisLdom

SOLARISZONE=SolarisZone


RECONTROLFILE=resourcecontrol

REBOOTCMD=reboot

RESOURCECONTROLCMD=/opt/oracle.SupportTools/resourcecontrol

RESOURCECONTROLCMDCOREFLAG=core

RESOURCECONTROLCMDSHOWFLAG=show

CELLCLI=cellcli -e

ENABLEEIGHTRACK=alter cell eighthRack=TRUE

DISABLEEIGHTRACK=alter cell eighthRack=FALSE


# Imageversion:zip filename,Imageversion:zipfilename so we get to support

# multiple image versions when we get there.

#DBMOG=

DBMOG=112330:E13877_01.zip

DBMOGDOCDESTLOC=/opt/oracle/cell/doc


#

NUMCOMPUTECORES=8

NUMCELLCORES=6

ALLCORES=All


# MachineTypes

X3CELLMACHINETYPE=SUN_FIRE_X4270_M3

X4CELLMACHINETYPE=SUN_SERVER_X4-2L


NODELISTENERUSERNAME=nlistener

NODELISTENERUSERID=54212


VMSIZES=small,medium,large

VMATTRIBUTELIST=cpuCount,MemorySize,DiskSize

RESCONTROLFILE=resourcecontrol

SOLARISUBIOSPKG=solaris-ubiosfiles.tar.gz

SUPTOOLDIR=/opt/oracle.SupportTools

SSCZONETOOLDIR=/opt/oracle.supercluster/zonetools/ssc_exavm

# 20Gb in MB per zone

MAXZONEMEMORY=20971520

# Move this to solaris props

SVCADM=/usr/sbin/svcadm


UIENABLENEWREPORT=true


##UI

UISHOWCONSOLE=false

UIUSENEWMASKS=true

UIENABLEDEPLOY=false

UIENABLEAVM=false

UIENABLEM6=true

FAKERESECURE=false

Posted by pat98

2014. 10. 20. 13:10 오라클

rac node 추가 삭제


============================================================


노드추가 (node1,node2 존재  node3 추가시)


1. 클러스터 무결성 확인


cluvfy stage -pre nodeadd -n node3 [-verbose]



2. addNode 로 cluster 확장


export IGNORE_PREADDNODE_CHECKS=Y


cd Oracle_home/oui/bin


$ ./addNode.sh "CLUSTER_NEW_NODES={node3}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={node3-vip}"


multiple 일 경우 , 로 노드구분


3. node 3에서 root 유저로


Grid_home/root.sh


4. 클러스터 무결성 확인


cluvfy stage -post nodeadd -n node3 [-verbose]


============================================================


노드제거  (node1,node2,node3 존재  node3 제거시)


1. olsnodes -s -t

(노드가 unpined 되었는지 확인)


2. root 유저로 


cd Grid_home/crs/install

/rootcrs.pl -deconfig -force


3. root 유저로 남아있는 노드에서


crsctl delete node -n node1


4. 지워질 노드에서

./runInstaller -updateNodeList ORACLE_HOME=Grid_home "CLUSTER_NODES={node3}" CRS=TRUE -silent -local


5. 지워질 노드에서 

$ Grid_home/deinstall/deinstall -local


6. 남아있는 노드에서 


./runInstaller -updateNodeList ORACLE_HOME=Grid_home "CLUSTER_NODES={node1,node2}" CRS=TRUE -silent


7. 해당 노드가 잘 지워졌는지 확인

cluvfy stage -post nodedel -n node3 [-verbose]

Posted by pat98


DB Node 쪽


[EXA1]root@exa1:/etc/oracle/cell/network-config# cat cellinit.ora

ipaddress1=192.168.10.8/24


[EXA1]root@exa1:/etc/oracle/cell/network-config# cat cellip.ora

cell="192.168.10.1"

cell="192.168.10.2"

cell="192.168.10.3"

 

X4-2 인 경우 Active-Active 이므로 1개 더 추가. Cell 도 마찬가지..

 

[EXA1]root@exa1:/etc/oracle/cell/network-config# cat cellinit.ora

ipaddress1=192.168.10.8/24

ipaddress2=192.168.10.9/24


[EXA1]root@exa1:/etc/oracle/cell/network-config# cat cellip.ora

cell="192.168.10.1;192.168.10.4"

cell="192.168.10.2;192.168.10.5"

cell="192.168.10.3;192.168.10.6"

Cell node 쪽


[root@gtceladm01 config]# cat /opt/oracle/cell11.2.3.3.0_LINUX.X64_131014.1/cellsrv/deploy/config/cellinit.ora

#CELL Initialization Parameters

version=0.0

HTTP_PORT=8888

bbuChargeThreshold=800

SSL_PORT=23943

RMI_PORT=23791

_cell_fc_persistence_state=WriteBack

ipaddress1=192.168.10.1/24

bbuTempThreshold=60

DEPLOYED=TRUE

JMS_PORT=9127

BMC_SNMP_PORT=162

Posted by pat98


멀티랙 구성시 Exadata 에서는 Subnet Manager 는 반드시 내려야 함.


Exalogic에서는 아래과 같이 변경해줌. Spine 은 8 leaf 는 5


Exadata ib switch priority 5 - > 8 로 변경 작업


[root@gtsw-iba01 ~]# setsmpriority list

Current SM settings:

smpriority 5

controlled_handover TRUE

subnet_prefix 0xfe80000000000000


[root@gtsw-iba01 ~]# disablesm

Stopping partitiond daemon.                                [  OK  ]

Stopping IB Subnet Manager..                               [  OK  ]


[root@gtsw-iba01 ~]# setsmpriority 8

Current SM settings:

smpriority 8

controlled_handover TRUE

subnet_prefix 0xfe80000000000000


[root@gtsw-iba01 ~]# enablesm

Starting IB Subnet Manager.                                [  OK  ]

Starting partitiond daemon.                                [  OK  ]


[root@gtsw-iba01 ~]# setsmpriority list

Current SM settings:

smpriority 8

controlled_handover TRUE

subnet_prefix 0xfe80000000000000

Posted by pat98

01-27 18:28
Flag Counter
Yesterday
Today
Total

글 보관함

최근에 올라온 글

달력

 « |  » 2025.1
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31

최근에 달린 댓글