65533 일부 운영 체제에서는 더 적을 수 있습니다. DB_FILES데이터베이스 블록의 크기와 특정 인스턴스의 초기화 매개변수에 의해서도 제한됩니다.
데이터베이스 범위
사전 관리 테이블스페이스당 최대값
4GB * 물리적 블록 크기(K/M 수정자 사용)4GB(K/M 수정자 제외)
데이터베이스 범위
로컬로 관리되는(균일) 테이블스페이스당 최대값
2GB * 물리적 블록 크기(K/M 수정자 사용)2GB(K/M 수정자 제외)
데이터베이스 파일 크기
최고
운영 체제에 따라 다릅니다.최대 운영 체제 파일 크기로 제한됩니다.이러한 유형의 테이블스페이스의 최대 데이터베이스 파일 크기에 대한 자세한 내용은Bigfile 테이블스페이스및Smallfile(기존) 테이블스페이스행을 참조하세요 .
MAXEXTENTS
기본값
테이블스페이스 기본 스토리지 또는DB_BLOCK_SIZE초기화 매개변수 에서 파생됨
MAXEXTENTS
최고
제한 없는
리두 로그 파일
최대 로그 파일 수
명령문MAXLOGFILES의 매개변수값으로 제한됨CREATE DATABASE 더 많은 항목을 허용하도록 제어 파일의 크기를 조정할 수 있습니다.궁극적으로 운영 체제 제한
리두 로그 파일
그룹당 최대 로그 파일 수
제한 없는
리두 로그 파일 크기
최소 크기
4 MB
리두 로그 파일 크기
최대 크기
운영 체제 제한일반적으로2결핵
테이블스페이스
데이터베이스당 최대 수
64 K 각 테이블스페이스에는 하나 이상의 파일이 포함되어야 하므로 테이블스페이스 수는 데이터베이스 파일 수를 초과할 수 없습니다.
빅파일 테이블스페이스
블록 수
빅파일 테이블스페이스에는 단 하나의 데이터 파일 또는 임시 파일만 포함되며, 이는 최대 약 40억( 232)개의 블록을 포함할 수 있습니다.단일 데이터 파일 또는 임시 파일의 최대 크기는 32K 블록이 있는 테이블스페이스의 경우 128TB이고, 8K 블록이 있는 테이블스페이스의 경우 32TB입니다.
Smallfile(기존) 테이블스페이스
블록 수
스몰파일 테이블스페이스는 전통적인 Oracle 테이블스페이스로, 1023개의 데이터 파일 또는 임시 파일을 포함할 수 있으며 각 테이블스페이스에는 최대 약 400만(222)개의 블록이 포함될 수 있습니다.
최대 크기: 4000바이트 또는MAX_STRING_SIZE초기화 매개변수가 다음으로 설정된 경우 32767바이트EXTENDED 추가 세부사항은"MAX_STRING_SIZE" 초기화 매개변수를참조하십시오.
없음
정도
유효 숫자 38개
없음
RAW
최대 크기: 2000바이트 또는MAX_STRING_SIZE초기화 매개변수가 다음으로 설정된 경우 32767바이트EXTENDED 추가 세부사항은"MAX_STRING_SIZE" 초기화 매개변수를참조하십시오.
없음
VARCHAR2
최대 크기: 4000바이트 또는MAX_STRING_SIZE초기화 매개변수가 다음으로 설정된 경우 32767바이트EXTENDED 추가 세부사항은"MAX_STRING_SIZE" 초기화 매개변수를참조하십시오.
없음
각주 1
테이블의 절대 최대 열 수는 1000입니다. 그러나 객체 테이블(또는 객체 열, 중첩 테이블, 가변형 또는REF유형의 열이 있는 관계형 테이블)을 생성할 때 Oracle은 사용자 정의 유형의 열을 다음 테이블에 매핑합니다. 관계형 열을 사용하여 실제로 1000개 열 제한에 포함되는 숨겨진 열을 생성합니다.Oracle이 해당 테이블의 총 열 수를 계산하는 방법에 대한 자세한 내용은Oracle Database Administrator's Guide를참조하십시오 .
[racdb1:/home/oracle]> crsctl query css votedisk ## STATE File Universal Id File Name Disk group -- ----- ----------------- --------- --------- 1. ONLINE a2cd2b1080754f3dbfd1dd9cfc288076 (/dev/oracleasm/disks/CRS1) [CRS] 2. ONLINE 3d09921f15d14f46bf07b9802ba755d4 (/dev/oracleasm/disks/CRS3) [CRS] 3. ONLINE 4b80c0d6281c4f13bfbb26f44031a142 (/dev/oracleasm/disks/CRS2) [CRS] 3개의 선호 디스크를 찾았습니다. [root@rac1 disks]# olsnodes -n -i -s -t rac1 1 <none> Active Unpinned rac2 2 <none> Active Unpinned [racdb1:/home/oracle]> ocrcheck Status of Oracle Cluster Registry is as follows : Version : 4 Total space (kbytes) : 491684 Used space (kbytes) : 84292 Available space (kbytes) : 407392 ID : 269554171 Device/File Name : +CRS Device/File integrity check succeeded Device/File not configured Device/File not configured Device/File not configured Device/File not configured Cluster registry integrity check succeeded Logical corruption check bypassed due to non-privileged user
-- disk 정보
[root@rac1 ~]# cd /dev/oracleasm/disks
[root@rac1 disks]# ls ASM01 ASM02 ASM03 ASM04 ASM05 CRS1 CRS2 CRS3 CRS4 DATA DATA2 FRA
[root@rac1 disks]# dd if=/dev/zero of=/dev/oracleasm/disks/CRS1 bs=8192 dd: `/dev/oracleasm/disks/CRS1'에 쓰는 도중 오류 발생: 장치에 남은 공간이 없음 130945+0 records in 130944+0 records out 1072693248 bytes (1.1 GB) copied, 3.63769 s, 295 MB/s [root@rac1 disks]# dd if=/dev/zero of=/dev/oracleasm/disks/CRS2 bs=8192 dd if=/dev/zero of=/dev/oracleasm/disks/CRS3 bs=8192 dd if=/dev/zero of=/dev/oracleasm/disks/CRS4 bs=8192dd: dd: `/dev/oracleasm/disks/CRS2'에 쓰는 도중 오류 발생: 장치에 남은 공간이 없음 130945+0 records in 130944+0 records out 1072693248 bytes (1.1 GB) copied, 2.12309 s, 505 MB/s [root@rac1 disks]# dd if=/dev/zero of=/dev/oracleasm/disks/CRS3 bs=8192 dd: `/dev/oracleasm/disks/CRS3'에 쓰는 도중 오류 발생: 장치에 남은 공간이 없음 130945+0 records in 130944+0 records out 1072693248 bytes (1.1 GB) copied, 3.82352 s, 281 MB/s [root@rac1 disks]# dd if=/dev/zero of=/dev/oracleasm/disks/CRS4 bs=8192 dd: `/dev/oracleasm/disks/CRS4'에 쓰는 도중 오류 발생: 장치에 남은 공간이 없음 130945+0 records in 130944+0 records out 1072693248 bytes (1.1 GB) copied, 4.25221 s, 252 MB/s
-- 비정상 동작 확인
[root@rac1 disks]# crsctl query css votedisk ## STATE File Universal Id File Name Disk group -- ----- ----------------- --------- --------- 1. OFFLINE 04d643e792984fa7bf2c85e2a9abcac2 (/dev/oracleasm/disks/CRS1) [CRS] 2. PENDOFFL d3be744a62074f53bf7e41621a49fadc (/dev/oracleasm/disks/CRS2) [CRS] 3. PENDOFFL d0469877eb0d4f82bf8c6a9c45193bc8 (/dev/oracleasm/disks/CRS3) [CRS] Located 3 voting disk(s). [root@rac1 disks]# ocrcheck PROT-601: Failed to initialize ocrcheck PROC-22: The OCR backend has an invalid format
2. CRS 정지
<GRID_HOME>/bin/crsctl stop crs -f
-- 그리드 정지 안 될때는 리 부팅 후 그리드 시작 초반에 다시 crsctl stop crs -f로 정지 해야 된다.
3. 구성 해제
De-configure the clusterware on the remote nodes (typically 'node2'-'noden') On all remote nodes, as root on Unix platforms and as the (current) Grid Infrastructure software owner on Windows, execute the following:
[root@rac2 install]# ./rootcrs.pl -deconfig -force -verbose ./rootcrs.pl: line 88: =head1: command not found ./rootcrs.pl: line 90: rootcrs.pl: command not found ./rootcrs.pl: line 92: =head1: command not found ./rootcrs.pl: line 94: rootcrs.pl: command not found ./rootcrs.pl: line 95: parameter-file: 그런 파일이나 디렉터리가 없습니다 ./rootcrs.pl: line 96: [-deconfig: command not found ./rootcrs.pl: line 96: file: 그런 파일이나 디렉터리가 없습니다 ./rootcrs.pl: line 97: path: 그런 파일이나 디렉터리가 없습니다 ./rootcrs.pl: line 98: path: 그런 파일이나 디렉터리가 없습니다 ./rootcrs.pl: line 99: [[-prepatch: command not found ./rootcrs.pl: line 99: path: 그런 파일이나 디렉터리가 없습니다 ./rootcrs.pl: line 100: node: 그런 파일이나 디렉터리가 없습니다 ./rootcrs.pl: line 101: [-init]: command not found ./rootcrs.pl: line 102: path: 그런 파일이나 디렉터리가 없습니다 ./rootcrs.pl: line 103: sites: 그런 파일이나 디렉터리가 없습니다 ./rootcrs.pl: line 104: conversion: 그런 파일이나 디렉터리가 없습니다 ./rootcrs.pl: line 104: -createmc: command not found ./rootcrs.pl: line 104: -rollbacksc: command not found ./rootcrs.pl: line 104: dsc: 그런 파일이나 디렉터리가 없습니다 ./rootcrs.pl: line 104: -convert: command not found ./rootcrs.pl: line 106: Options:: command not found ./rootcrs.pl: line 107: -verbose: command not found ./rootcrs.pl: line 108: -upgrade: command not found ./rootcrs.pl: line 109: -lock: command not found ./rootcrs.pl: line 110: -paramfile: command not found ./rootcrs.pl: line 111: -lastnode: command not found
wtmp begins Sun Jan 2 01:04:41 2022 ./rootcrs.pl: line 113: with: command not found ./rootcrs.pl: line 114: -downgrade: command not found ./rootcrs.pl: line 115: -deconfig: command not found ./rootcrs.pl: line 116: -deinstall: command not found ./rootcrs.pl: line 117: -keepdg: command not found ./rootcrs.pl: line 118: -force: command not found ./rootcrs.pl: line 119: verified: command not found ./rootcrs.pl: line 120: -unlock: command not found ./rootcrs.pl: line 121: -crshome: command not found ./rootcrs.pl: line 122: syntax error near unexpected token `(' ./rootcrs.pl: line 122: ` -prepatch Perform required steps before the Oracle patching tool (Opatch) is invoked'
4) On the local node (typically 'node1'), as root on Unix platforms and as the (current) Grid Infrastructure software owner on Windows, execute the following: a) ONLY EXECUTE THE FOLLOWING COMMAND IF YOUR OCR and VD files ARE CONTAINED WITHIN THEIR OWN DISKGROUP:
######################### DECONFIG CHECK OPERATION START ######################### ## [시작] 설치 확인 구성 ##
Oracle Clusterware 프로세스가 로컬 노드에서 실행 중이지 않으므로 설치 해제 유틸리티가 해당 홈이 구성된 노드 목록을 확인할 수 없습니다.
다른 노드에 구성된 홈입니까(y - 예, n - 아니오)?[n]:
Oracle 홈 위치의 존재 여부를 확인하는 중/u01/app/19c/grid 설치 해제를 위해 선택된 Oracle 홈 유형: 클러스터용 Oracle Grid Infrastructure 설치 해제를 위해 선택된 Oracle 기본 위치: /u01/app/oracle 중앙 인벤토리 위치의 존재 여부를 확인하는 중/u01/app/oraInventory Oracle Grid Infrastructure 홈의 존재 여부를 확인하는 중/u01/app/19c/grid 이 클러스터에 속한 노드: rac1 노드에 충분한 임시 공간을 사용할 수 있는지 확인하는 중: 'rac1'
네트워크 구성 해제 추적 파일 위치: /u01/app/oraInventory/logs/netdc_check2024-02-06_10-50-12AM.log
구성을 해제할 RAC 리스너(SCAN 리스너 포함 안함)를 모두 지정하십시오. 모두 선택 해제하려면 .(마침표)를 입력하십시오. [ASMNET1LSNR_ASM,LISTENER,LISTENER_SCAN3,LISTENER_SCAN2,LISTENER_SCAN1]:
네트워크 구성 확인 구성 종료
ASM 확인 구성 시작
ASM 구성 해제 추적 파일 위치: /u01/app/oraInventory/logs/asmcadc_check2024-02-06_10-50-12AM.log
이 Oracle 홈에서 ASM 구성이 감지되지 않았습니다. 이 Oracle 홈 (y|n)에서 ASM을 구성했습니까? [n]: y 이 Oracle 홈 /u01/app/19c/grid에서 ASM(Automatic Storage Management) 인스턴스가 감지되었습니다. ASM 진단 대상: /u01/app/oracle ASM 디스크 그룹: ASM 디스크 문자열: /dev/oracleasm/disks/* 디스크 그룹이 삭제되지 않습니다. 기존 디스크 그룹을 보존하려는 경우 또는 감지된 정보가 올바르지 않을 경우 'y'를 입력하여 수정할 수 있습니다. 위 정보 (y|n)을(를) 수정하겠습니까? [n]: 데이터베이스 확인 구성 시작
데이터베이스 구성 해제 추적 파일 위치: /u01/app/oraInventory/logs/databasedc_check2024-02-06_10-50-12AM.log
이 Grid Infrastructure 홈에서 Oracle Grid 관리 데이터베이스를 찾을 수 없습니다.
데이터베이스 확인 구성 종료
######################### DECONFIG CHECK OPERATION END #########################
####################### DECONFIG CHECK OPERATION SUMMARY ####################### Oracle Grid Infrastructure 홈: /u01/app/19c/grid 이 클러스터에 속한 노드: rac1 Oracle 홈 설치 해제가 수행될 클러스터 노드:rac1 설치 해제를 위해 선택된 Oracle 홈: /u01/app/19c/grid 등록된 Oracle 홈이 있는 인벤토리 위치: /u01/app/oraInventory 구성을 해제할 RAC 리스너: ASMNET1LSNR_ASM,LISTENER,LISTENER_SCAN3,LISTENER_SCAN2,LISTENER_SCAN1 이 Oracle 홈에서 ASM 인스턴스의 구성이 해제됩니다. 이 Grid Infrastructure 홈에서 Oracle Grid 관리 데이터베이스를 찾을 수 없습니다. 계속하겠습니까(y - 예, n - 아니오)? [n]: y 이 세션의 로그는 '/u01/app/oraInventory/logs/deinstall_deconfig2024-02-06_10-49-07-AM.out'에 기록됩니다. 이 세션의 모든 오류 메시지는 '/u01/app/oraInventory/logs/deinstall_deconfig2024-02-06_10-49-07-AM.err'에 기록됩니다.
######################## DECONFIG CLEAN OPERATION START ######################## 데이터베이스 구성 해제 추적 파일 위치: /u01/app/oraInventory/logs/databasedc_clean2024-02-06_10-50-12AM.log ASM 구성 해제 추적 파일 위치: /u01/app/oraInventory/logs/asmcadc_clean2024-02-06_10-50-12AM.log ASM 정리 구성 시작 ASM 정리 구성 종료
네트워크 구성 정리 구성 시작
네트워크 구성 해제 추적 파일 위치: /u01/app/oraInventory/logs/netdc_clean2024-02-06_10-50-12AM.log
RAC 리스너의 구성을 해제하는 중: ASMNET1LSNR_ASM,LISTENER,LISTENER_SCAN3,LISTENER_SCAN2,LISTENER_SCAN1
리스너의 구성을 해제하는 중: ASMNET1LSNR_ASM 리스너를 정지하는 중: ASMNET1LSNR_ASM 경고: 리스너 정지를 실패했습니다. 리스너가 실행 중이 아닐 수 있습니다. 리스너의 구성이 성공적으로 해제되었습니다.
리스너의 구성을 해제하는 중: LISTENER 리스너를 정지하는 중: LISTENER 경고: 리스너 정지를 실패했습니다. 리스너가 실행 중이 아닐 수 있습니다. 리스너의 구성이 성공적으로 해제되었습니다.
리스너의 구성을 해제하는 중: LISTENER_SCAN3 리스너를 정지하는 중: LISTENER_SCAN3 경고: 리스너 정지를 실패했습니다. 리스너가 실행 중이 아닐 수 있습니다. 리스너의 구성이 성공적으로 해제되었습니다.
리스너의 구성을 해제하는 중: LISTENER_SCAN2 리스너를 정지하는 중: LISTENER_SCAN2 경고: 리스너 정지를 실패했습니다. 리스너가 실행 중이 아닐 수 있습니다. 리스너의 구성이 성공적으로 해제되었습니다.
리스너의 구성을 해제하는 중: LISTENER_SCAN1 리스너를 정지하는 중: LISTENER_SCAN1 경고: 리스너 정지를 실패했습니다. 리스너가 실행 중이 아닐 수 있습니다. 리스너의 구성이 성공적으로 해제되었습니다.
모든 노드에서 이름 지정 방법 구성 파일의 구성을 해제하는 중... 이름 지정 방법 구성 파일의 구성이 성공적으로 해제되었습니다.
모든 노드에서 로컬 네트 서비스 이름 구성 파일의 구성을 해제하는 중... 로컬 네트 서비스 이름 구성 파일의 구성이 성공적으로 해제되었습니다.
모든 노드에서 디렉토리 사용 구성 파일의 구성을 해제하는 중... 디렉토리 사용 구성 파일의 구성이 성공적으로 해제되었습니다.
모든 노드에서 백업 파일의 구성을 해제하는 중... 백업 파일의 구성이 성공적으로 해제되었습니다.
네트워크 구성이 성공적으로 정리되었습니다.
네트워크 구성 정리 구성 종료
---------------------------------------->
아래의 deconfig 명령은 모든 원격 노드에서 병렬로 실행할 수 있습니다. 모든 원격 노드에서 실행이 완료된 후 로컬 노드에서 명령을 실행하십시오.
[root@rac1 ~]# /u01/app/19c/grid/crs/install/rootcrs.sh -force -deconfig -paramfile "/tmp/deinstall2024-02-06_10-48-43AM/response/deinstall_OraGI19Home1.rsp" -lastnode Using configuration parameter file: /tmp/deinstall2024-02-06_10-48-43AM/response/deinstall_OraGI19Home1.rsp The log of current session can be found at: /u01/app/oraInventory/logs/crsdeconfig_rac1_2024-02-06_10-51-57AM.log PRCR-1070 : 리소스 ora.cvu이(가) 등록되었는지 여부 확인을 실패했습니다.
CRS-0184 : Cannot communicate with the CRS daemon.
2024/02/06 10:52:05 CLSRSC-180: An error occurred while executing the command '/u01/app/19c/grid/bin/srvctl stop cvu -f' PRCR-1070 : 리소스 ora.cvu이(가) 등록되었는지 여부 확인을 실패했습니다.
CRS-0184 : CRS 데몬과 통신할 수 없습니다.
2024/02/06 10:52:06 CLSRSC-180: An error occurred while executing the command '/u01/app/19c/grid/bin/srvctl remove cvu -f' PRCR-1068 : 리소스 질의를 실패했습니다.
CRS-0184 : CRS 데몬과 통신할 수 없습니다.
2024/02/06 10:52:06 CLSRSC-180: An error occurred while executing the command '/u01/app/19c/grid/bin/srvctl stop scan_listener -f' PRCR-1068 : 리소스 질의를 실패했습니다.
CRS-0184 : CRS 데몬과 통신할 수 없습니다.
2024/02/06 10:52:07 CLSRSC-180: An error occurred while executing the command '/u01/app/19c/grid/bin/srvctl remove scan_listener -y -f' PRCR-1068 : 리소스 질의를 실패했습니다. CRS-0184 : CRS 데몬과 통신할 수 없습니다. 2024/02/06 10:52:07 CLSRSC-180: An error occurred while executing the command '/u01/app/19c/grid/bin/srvctl stop scan -f' PRCR-1068 : 리소스 질의를 실패했습니다. CRS-0184 : CRS 데몬과 통신할 수 없습니다. 2024/02/06 10:52:08 CLSRSC-180: An error occurred while executing the command '/u01/app/19c/grid/bin/srvctl remove scan -y -f' PRCR-1070 : 리소스 ora.net1.network이(가) 등록되었는지 여부 확인을 실패했습니다. CRS-0184 : CRS 데몬과 통신할 수 없습니다. PRCR-1070 : 리소스 ora.helper이(가) 등록되었는지 여부 확인을 실패했습니다. CRS-0184 : CRS 데몬과 통신할 수 없습니다. PRCR-1070 : 리소스 ora.ons이(가) 등록되었는지 여부 확인을 실패했습니다. CRS-0184 : CRS 데몬과 통신할 수 없습니다.
2024/02/06 10:52:09 CLSRSC-180: An error occurred while executing the command '/u01/app/19c/grid/bin/srvctl config nodeapps'
CRS-4123: Oracle 고가용성 서비스가 시작되었습니다. CRS-2672: 'ora.evmd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.mdnsd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.mdnsd' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.evmd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.gpnpd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.gpnpd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cssdmonitor'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.gipcd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.cssdmonitor' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.gipcd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.cssd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.diskmon'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.diskmon' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.cssd' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.crf'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.ctssd'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2672: 'ora.cluster_interconnect.haip'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.crf' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.ctssd' 시작('rac1')이 성공했습니다. CRS-2676: 'ora.cluster_interconnect.haip' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.asm'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. CRS-2676: 'ora.asm' 시작('rac1')이 성공했습니다. CRS-2672: 'ora.storage'을(를) 'rac1'에서 시작하려고 시도하는 중입니다. diskgroup CRS not mounted () CRS-5055: 클러스터에 실행 중인 ASM 인스턴스가 없으므로 ASM 인스턴스에 접속할 수 없습니다. CRS-2674: 'ora.storage' 시작('rac1')이 실패했습니다. CRS-2679: 'ora.storage'('rac1')을(를) 정리하려고 시도하는 중입니다. CRS-2681: 'ora.storage' 정리('rac1')가 성공했습니다. CRS-2673: 'ora.asm'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.asm' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.cluster_interconnect.haip'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.cluster_interconnect.haip' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.ctssd'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.ctssd' 정지('rac1')가 성공했습니다. CRS-2673: 'ora.crf'을(를) 'rac1'에서 정지하려고 시도하는 중입니다. CRS-2677: 'ora.crf' 정지('rac1')가 성공했습니다. CRS-4000: Start 명령을 실패했거나 오류와 함께 완료되었습니다. 2024/02/06 11:03:31 CLSRSC-260: Clusterware exclusive mode start of Cluster Ready Services failed 2024/02/06 11:03:31 CLSRSC-558: failed to deconfigure ASM 2024/02/06 11:03:31 CLSRSC-651: One or more deconfiguration steps failed, but the deconfiguration process continued because the -force option was specified. 2024/02/06 11:03:49 CLSRSC-4006: Removing Oracle Trace File Analyzer (TFA) Collector. 2024/02/06 11:05:48 CLSRSC-4007: Successfully removed Oracle Trace File Analyzer (TFA) Collector. 2024/02/06 11:05:52 CLSRSC-336: Successfully deconfigured Oracle Clusterware stack on this node 2024/02/06 11:05:52 CLSRSC-559: Ensure that the GPnP profile data under the 'gpnp' directory in /u01/app/19c/grid is deleted on each node before using the software in the current Grid Infrastructure home for reconfiguration.
-- #1번 서버 설치 중 root.sh 실행하라고 나오면 1.서버 root.sh실행 후 2번서버root.sh실행
[root@rac1 grid]# ./root.sh Performing root user operation.
The following environment variables are set as: ORACLE_OWNER= oracle ORACLE_HOME= /u01/app/19c/grid
Enter the full pathname of the local bin directory: [/usr/local/bin]: The contents of "dbhome" have not changed. No need to overwrite. The contents of "oraenv" have not changed. No need to overwrite. The contents of "coraenv" have not changed. No need to overwrite.
Entries will be added to the /etc/oratab file as needed by Database Configuration Assistant when a database is created Finished running generic part of root script. Now product-specific root actions will be performed. Relinking oracle with rac_on option Using configuration parameter file: /u01/app/19c/grid/crs/install/crsconfig_params The log of current session can be found at: /u01/app/oracle/crsdata/rac2/crsconfig/rootcrs_rac2_2024-02-06_02-50-47PM.log 2024/02/06 14:50:56 CLSRSC-594: Executing installation step 1 of 19: 'SetupTFA'. 2024/02/06 14:50:56 CLSRSC-594: Executing installation step 2 of 19: 'ValidateEnv'. 2024/02/06 14:50:57 CLSRSC-594: Executing installation step 3 of 19: 'CheckFirstNode'. 2024/02/06 14:50:58 CLSRSC-594: Executing installation step 4 of 19: 'GenSiteGUIDs'. 2024/02/06 14:50:58 CLSRSC-594: Executing installation step 5 of 19: 'SetupOSD'. 2024/02/06 14:50:58 CLSRSC-594: Executing installation step 6 of 19: 'CheckCRSConfig'. 2024/02/06 14:50:59 CLSRSC-594: Executing installation step 7 of 19: 'SetupLocalGPNP'. 2024/02/06 14:51:01 CLSRSC-594: Executing installation step 8 of 19: 'CreateRootCert'. 2024/02/06 14:51:01 CLSRSC-594: Executing installation step 9 of 19: 'ConfigOLR'. 2024/02/06 14:51:10 CLSRSC-594: Executing installation step 10 of 19: 'ConfigCHMOS'. 2024/02/06 14:51:10 CLSRSC-594: Executing installation step 11 of 19: 'CreateOHASD'. 2024/02/06 14:51:11 CLSRSC-594: Executing installation step 12 of 19: 'ConfigOHASD'. 2024/02/06 14:51:12 CLSRSC-330: Adding Clusterware entries to file 'oracle-ohasd.service' 2024/02/06 14:51:32 CLSRSC-4002: Successfully installed Oracle Trace File Analyzer (TFA) Collector. 2024/02/06 14:51:41 CLSRSC-594: Executing installation step 13 of 19: 'InstallAFD'. 2024/02/06 14:51:43 CLSRSC-594: Executing installation step 14 of 19: 'InstallACFS'. 2024/02/06 14:51:44 CLSRSC-594: Executing installation step 15 of 19: 'InstallKA'. 2024/02/06 14:51:46 CLSRSC-594: Executing installation step 16 of 19: 'InitConfig'. 2024/02/06 14:51:54 CLSRSC-594: Executing installation step 17 of 19: 'StartCluster'. 2024/02/06 14:52:50 CLSRSC-343: Successfully started Oracle Clusterware stack 2024/02/06 14:52:50 CLSRSC-594: Executing installation step 18 of 19: 'ConfigNode'. 2024/02/06 14:53:08 CLSRSC-594: Executing installation step 19 of 19: 'PostConfig'. 2024/02/06 14:53:16 CLSRSC-325: Configure Oracle Grid Infrastructure for a Cluster ... succeeded
7. root.sh 완료 후 제대로 실행 되었는 지 확인
Unix: <GRID_HOME>/bin/crsctl check cluster -all [root@rac2 grid]# crsctl check cluster -all ************************************************************** rac1: CRS-4535: Cannot communicate with Cluster Ready Services CRS-4529: Cluster Synchronization Services is online CRS-4533: Event Manager is online ************************************************************** rac2: CRS-4535: Cannot communicate with Cluster Ready Services CRS-4529: Cluster Synchronization Services is online CRS-4533: Event Manager is online **************************************************************
For Grid Infrastructure Standalone: <GRID_HOME>/bin/crsctl check has
For Grid Infrastructure Standalone, it's possible you will need to re-create your ora.asm resource using the following commands:
SQL*Plus: Release 19.0.0.0.0 - Production on Thu Sep 15 11:25:24 2022 Version 19.16.0.0.0
Copyright (c) 1982, 2022, Oracle. All rights reserved.
Last Successful login time: Thu Sep 15 2022 10:58:22 +09:00
Connected to: Oracle Database 19c Standard Edition 2 Release 19.0.0.0.0 - Production Version 19.16.0.0.0
접속 실패 시 DB 인스턴스 재 기동 [oracle@seha admin]$ sqlplus scott/tiger@lisa
SQL*Plus: Release 19.0.0.0.0 - Production on Thu Sep 15 10:13:12 2022 Version 19.16.0.0.0
Copyright (c) 1982, 2022, Oracle. All rights reserved.
ERROR: ORA-12514: TNS:listener does not currently know of service requested in connect descriptor
[oracle@seha admin]$ lsnrctl status lisa
LSNRCTL for Linux: Version 19.0.0.0.0 - Production on 15-SEP-2022 09:57:55
Copyright (c) 1991, 2022, Oracle. All rights reserved.
Connecting to (DESCRIPTION=(ADDRESS=(PROTOCOL=IPC)(KEY=LISA))) STATUS of the LISTENER ------------------------ Alias LISA Version TNSLSNR for Linux: Version 19.0.0.0.0 - Production Start Date 15-SEP-2022 09:56:03 Uptime 0 days 0 hr. 1 min. 51 sec Trace Level off Security ON: Local OS Authentication SNMP OFF Listener Parameter File /u01/app/grid/network/admin/listener.ora Listener Log File /u01/app/oracle/diag/tnslsnr/seha1/lisa/alert/log.xml Listening Endpoints Summary... (DESCRIPTION=(ADDRESS=(PROTOCOL=ipc)(KEY=LISA))) (DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=192.168.219.141)(PORT=2555))) (DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=192.168.219.192)(PORT=2555))) Services Summary... Service "+ASM" has 1 instance(s). Instance "+ASM1", status READY, has 1 handler(s) for this service... Service "+ASM_DATA" has 1 instance(s). Instance "+ASM1", status READY, has 1 handler(s) for this service... The command completed successfully
LSNRCTL for Linux: Version 19.0.0.0.0 - Production on 15-SEP-2022 09:58:31
Copyright (c) 1991, 2022, Oracle. All rights reserved.
Connecting to (DESCRIPTION=(ADDRESS=(PROTOCOL=IPC)(KEY=LISA))) STATUS of the LISTENER ------------------------ Alias LISA Version TNSLSNR for Linux: Version 19.0.0.0.0 - Production Start Date 15-SEP-2022 09:56:03 Uptime 0 days 0 hr. 2 min. 27 sec Trace Level off Security ON: Local OS Authentication SNMP OFF Listener Parameter File /u01/app/grid/network/admin/listener.ora Listener Log File /u01/app/oracle/diag/tnslsnr/seha1/lisa/alert/log.xml Listening Endpoints Summary... (DESCRIPTION=(ADDRESS=(PROTOCOL=ipc)(KEY=LISA))) (DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=192.168.219.141)(PORT=2555))) (DESCRIPTION=(ADDRESS=(PROTOCOL=tcp)(HOST=192.168.219.192)(PORT=2555))) Services Summary... Service "+ASM" has 1 instance(s). Instance "+ASM1", status READY, has 1 handler(s) for this service... Service "+ASM_DATA" has 1 instance(s). Instance "+ASM1", status READY, has 1 handler(s) for this service... Service "seha" has 1 instance(s). Instance "seha", status READY, has 1 handler(s) for this service... Service "sehaXDB" has 1 instance(s). Instance "seha", status READY, has 1 handler(s) for this service... The command completed successfully
접속 확인 [oracle@seha admin]$ sqlplus system/oracle@lisa
SQL*Plus: Release 19.0.0.0.0 - Production on Thu Sep 15 11:38:28 2022 Version 19.16.0.0.0
Copyright (c) 1982, 2022, Oracle. All rights reserved.
Last Successful login time: Thu Sep 15 2022 11:25:24 +09:00
Connected to: Oracle Database 19c Standard Edition 2 Release 19.0.0.0.0 - Production Version 19.16.0.0.0