alter diskgroup DATA set attribute 'disk_repair_time'='240H'; alter diskgroup RECO set attribute 'disk_repair_time'='240H';
alter diskgroup DATA set attribute 'failgroup_repair_time'='240H'; alter diskgroup RECO set attribute 'failgroup_repair_time'='240H';
alter diskgroup DATA offline disks in failgroup data_CD_06_cell11 DROP drop after 240H; alter diskgroup RECO offline disks in failgroup data_CD_06_cell11 DROP drop after 240H;
그러면 최장 얼마까지 길게 셋팅할수 있을지 테스트 해 보았다.
- 현재값 확인 set lines 200 col name for A40 col value for A30 select name,value from v$asm_attribute where group_number=1 and name like '%disk_repair_time%'; select name,value from v$asm_attribute where group_number=1 and name like '%failgroup_repair_time%';
- ASM disk 상태 및 failgroup 확인
col path format a59 set lines 200 set pagesi 400 select path, name, header_status, mode_status, mount_status, state, failgroup from v$asm_disk order by path;
alter diskgroup DATA set attribute 'disk_repair_time' = '595680h'; (68년) alter diskgroup DATA set attribute 'disk_repair_time' = '1191360h'; (136년)
alter diskgroup DATA set attribute 'failgroup_repair_time' = '595680h'; (68년) alter diskgroup DATA set attribute 'failgroup_repair_time' = '1191360h'; (136년)
너무 길게 해 놓을 필요는 없고 일반적으로 권장되는 설정 범위는 3시간 ~ 24시간 사이로 셋팅 권장.
Run post script (root로) export GI_HOME=/u01/app/19.0.0.0/grid $GI_HOME/rdbms/install/rootadd_rdbms.sh $GI_HOME/crs/install/rootcrs.sh -postpatch -rollback
#!/usr/local/bin/perl # # # oracle_exadata_response.pl # # Copyright (c) 2010, 2019, Oracle and/or its affiliates. All rights reserved. # # NAME # oracle_exadata_response.pl - <one-line expansion of the name> # # DESCRIPTION # <short description of component this file declares/defines> # # NOTES # <other useful comments, qualifications, etc.> # If "ping target" fails, report target is down (response metric returns em_result=0) # else(if ping OK) run the current ssh routine to get target status. # if ssh routine fails, "ping target" again. # if this 2nd ping OK, report target metric collection error (em_error=...) # else (this 2nd ping fails), report target is down (response metric returns em_result=0) # else(if ssh OK) return Exadata status from ssh cellcli (em_result) # #
use strict; require "emd_common.pl"; require "exadata/oracle_exadata_common.pl"; require "dbm/resp_util.pl";
my ($metricSource,$exaCLIUser, $exaCLIPwd,$trustSelfsigned, $httpsProtocol) = getInputInfo1();
my $ipaddress=$ARGV[0]; my $error_msg = ""; my $ipCheck = check_ipaddress_with_return($ipaddress,\$error_msg); if ($ipCheck <= 0) { # Response status is 0 # MS Status is unknown # ping status is failed print "em_result=0|UNKNOWN|FAILED\n"; #not reachable exit 0; }
my $sshKeyFile; if ($metricSource eq "cellcli" ) { $sshKeyFile = check_sshKeyFile(); } my $clicommand= ' list cell attributes msStatus '; my $scriptName = 'oracle_exadata_response.pl';
my $command; my $xmlout;
my $timeout = 120; # 2mins my $status_ms; my $test;
if ($? != 0 ) { #ping ipaddress again my $result = check_status($ipaddress); $test = $result; # save it EMD_PERL_DEBUG("check_status on cell host $ipaddress returned $result"); if ($result <= 0) { EMD_PERL_DEBUG("exadata_response cellcli failed and the 2nd ping failed too.\n"); # Response status is 0 # MS Status is unknown # ping status is failed print "em_result=0|UNKNOWN|FAILED\n"; #not reachable alarm 0; exit 0; } else { alarm 0; #if CELL-01529 duplicated command is returned, treat MS as running; #for other errors, report em_error if ( index($xmlout, "CELL-01529") >= 0 ) { EMD_PERL_DEBUG("Hit CELL-01529: Duplicate command execution.\n"); # Response status is 1 # MS Status is running # ping status is SUCCESS print "em_result=1|RUNNING|SUCCESS\n"; exit 0; } else { print "em_error=Failed to execute_exadata_response.pl $command: $xmlout\n"; exit -1; } } } alarm 0; }; if ($@) { die unless $@ eq "alarm\n"; # propagate unexpected errors if ($test != 1) { # Response status is 0 # MS Status is unknown # ping status is failed print "em_result=0|UNKNOWN|FAILED\n"; #not reachable exit 0; } else { print "please check on the agent host,if ssh access is setup according to the installation guide and is working as expected"; exit -1; # Indicate timeout and unavailabilty. } # timed out } #my $xmlout = `$command`;
my $parser = XML::Parser->new( Handlers => { Start=>\&handle_start, End=>\&handle_end, Char=> \&characterData, }); my $result; my $myinf; $parser->parse( $xmlout);
#print "em_result=$result\n";
#----------------------------------------------------------------- # FUNCTIONS : handle_start # # # DESC : Does node based parsing of the XML output. # # ARGUMENTS : # elements : Node elements in the XML # attrs : Attributes of the elements. # # #-----------------------------------------------------------------
sub handle_start { my( $expat, $element, %attrs ) = @_; $myinf=""; if ($element eq "msStatus") { $myinf="status_ms"; } }
이전에 한번 테스트한 적이 있는데 새로 할려니 방법이 약간 달라진거 같아 다시 테스트겸 기록한다.
--- AHF Auto Upgrade 하기
1. /u01/ahf 에 최신화일 업로드 (AHF-LINUX_v24.11.1) <---- 아무데나 올려도 상관없다.
2. 현재버전 확인 ahfctl version
This version of AHF is older than 180 days Please set software stage location using ahfctl setupgrade and then upgrade using ahfctl upgrade AHF version: 24.5.0
3. Configuration Parameter 설정 ahfctl setupgrade -swstage /u01/ahf -autoupgrade on
This version of AHF is older than 180 days Please set software stage location using ahfctl setupgrade and then upgrade using ahfctl upgrade AHF autoupgrade parameters successfully updated WARNING - AHF Software is older than 180 days. Please consider upgrading AHF to the latest version using ahfctl upgrade. Successfully synced AHF configuration
Initiating Autonomous Health Framework (AHF) auto upgrade /u01/ahf/AHF-LINUX_v24.11.1.zip found at stage location: /u01/ahf /u01/ahf/AHF-LINUX_v24.11.1.zip successfully extracted at /u01/ahf AHF software signature has been validated successfully Starting to upgrade Autonomous Health Framework (AHF) from 2405000_202406261156 to 2411100_202501080055
AHF Installer for Platform Linux Architecture x86_64
당사는 온프레미스, Cloud@Customer, Oracle Cloud, 멀티클라우드 등 고객이 필요로 하는 모든 곳에 배포할 수 있는 선택권과 유연성을 제공하는 차세대 Oracle Exadata X11M의 즉각적인 출시를 발표하게 되어 기쁩니다. Exadata는 세계 최대의 금융, 통신, 리테일 기업 대부분을 포함한 수천 개의 조직에서 가장 중요하고 까다로운 Oracle Database 워크로드를 실행하는 데 사용됩니다. 13세대 Exadata는 수십 년간의 엔지니어링 우수성을 바탕으로 전 세계적으로 미션 크리티컬 AI, 분석, OLTP 워크로드를 구동합니다. 이전 세대와 동일한 가격으로 제공되는 Exadata X11M은 모든 Oracle Database 워크로드에 극한의 성능, 확장성 및 가용성을 제공합니다.
Exadata X11M에서 최신 Exadata System Software를 사용하여 AI 벡터 검색을 실행하면 스토리지 서버로 처리를 오프로드하여AI 워크로드를 최대 30배까지 가속화합니다. 이를 통해 네트워크를 통해 전송되는 상당한 양의 데이터를 절약하고 데이터 바로 옆에 있는 CPU를 활용할 수 있습니다. Exadata System Software에는 스토리지로 오프로드된 쿼리에 대한 상위 K 결과를 추적하고 적응적으로 필터링하여데이터베이스 서버로 전송되는 데이터를 최대 4.7배까지 줄이는 최적화 기능도 포함되어 있습니다.또한 Exadata는 벡터 거리 함수의 결과를 계산하여 데이터베이스 서버로 다시 전송하므로데이터베이스 서버에서 추가 CPU 사용을 방지하고 쿼리를 최대 4.6배까지 가속화합니다 . 마지막으로 AI 벡터 쿼리는 Oracle Database 23ai에서BINARY 벡터 차원 형식을 사용할 때 최대 32배 더 빠른 쿼리입니다.
동일한 워크로드는 Exadata X11M에서 데이터베이스 서버의 더 빠른 CPU와 메모리를 활용하여 상당한 성능 이점을 얻습니다. In-Memory Neighbor Graph Vector Index(일명 Hierarchical Navigable Small World(HNSW)) 인덱스를 활용하는 AI 쿼리는 X10M보다최대 43% 더 빠릅니다. 스토리지 서버에서 Neighbor Partition Vector Index(일명 Inverted File Flat(IVF))를 사용하는 AI 쿼리는최대 55% 더 빠릅니다!
OLTP와 같은 미션 크리티컬 워크로드의 경우 Exadata X11M은 최신 AMD EPYC 프로세서 코어를 사용하여최대 1.25배 더 많은 동시 트랜잭션과 최대 1.25배 더 빠른 직렬 트랜잭션을지원합니다 .스토리지 서버에서 쓰기 IOPS가 최대 9% 증가하여 1,000,000에 도달합니다.Exadata RDMA Memory(XRMEM)의 읽기 대기 시간은17마이크로초에서14마이크로초로단축되어 이전 세대보다 놀랍게도 21% 더 빨라졌습니다. 마지막으로 플래시에서 단일 블록 읽기가 최대 43% 더 빨라졌습니다.
분석 워크로드는 데이터베이스 및 스토리지 서버에서 더 빠른 프로세서의 이점을 누리며,Smart Scan 및 기타 스토리지 서버 최적화가 추가/최종 처리를 위해 결과를 반환한 후 데이터베이스 서버에서최대 25% 더 빠른 분석 쿼리 처리가 가능합니다. Smart Scan과 관련하여 Exadata X10M의 Exadata System Software 24ai는 XRMEM 및 플래시를 활용하는 분석 쿼리에 대한 새로운 기능을 추가했습니다.Smart Scan은 플래시와 XRMEM 모두에서 데이터에 지능적으로 액세스하여분석 쿼리를 충족합니다. 이를 통해X10M 고용량 스토리지 서버의XRMEM에서 SQL 스캔 처리량이 45GB/s에서 380GB/s로 증가했습니다. X11M에서 이 숫자는 고용량 및 Extreme Flash 모두에서 스토리지 서버당500GB/s로 뛰어오릅니다.
X11M HC 및 EF 스토리지의 플래시SQL 스캔 처리량은 100GB/s로위에서 언급한 45GB/s보다 2.2배 증가했습니다. 스토리지 서버는 최대 11% 더 빠른 코어를 갖춘 더 빠른 프로세서 덕분에 오프로드된 분석 쿼리도 가속화합니다. 더 빠른 코어와 더 빠른 플래시 및 메모리 스캔 처리량의 결합 효과는 시스템의 전체 분석 쿼리 처리량을 크게 증가시킵니다.
지속 가능성 및 효율성
고객이 지속 가능성을 해결해야 할 필요성은 그 어느 때보다 더 시급합니다. 고객은 환경 영향을 최소화하고, 운영 비용을 절감하고, 복잡한 규제 환경을 헤쳐 나가야 합니다. 오늘날의 지속 가능성 요구에 부응하는 Exadata X11M은 고객이 전력 소비와 비용을 줄이는 데 도움이 됩니다. Exadata X11M의극한의 성능 덕분에 고객은 더 적은 시스템에 더 많은 Oracle Database 워크로드를 효율적으로 통합하여인프라, 전력, 냉각, 데이터 센터 및 운영 비용을 절감할 수 있습니다. IT 임원은 끊임없이 증가하는 워크로드 수요와 실행 예산 감소에 직면해 있기 때문에 Exadata X11M은 더 적은 것으로 더 많은 것을 할 수 있는 확실한 선택입니다.
Exadata X11M에는데이터베이스 서버 CPU의 전력 소비를 특정 전력 목표로 제한하거나,예를 들어 주중과 주말에워크로드 수요가 낮을 때 데이터베이스 서버가 자동으로 동적으로 전력을 절약할 수 있도록 하는 새로운 지능형전력 효율 기능 도 포함되어 있습니다. Exadata X11M은 또한불필요한 코어를 지능적으로 꺼서 고객이 에너지를 절약할 수 있도록 합니다.
• 더 많은 데이터베이스를실행하고 더 많은사용자를 호스팅합니다.
• 더 많은워크로드를 실행하고 더 많은 데이터를 저장합니다.
• 더 많은AI, 분석및트랜잭션을 실행합니다.
• 또는더 적은 하드웨어를사용하여 동일한 워크로드를 실행합니다.
Exadata X11M을 사용하면 비용을 절감할 수 있습니다!
Exadata Cloud@Customer와 OCI의 퍼블릭 클라우드 또는 Microsoft Azure, Google Cloud, AWS의 멀티클라우드 서비스에서 Oracle Database 서비스를 활용하는 고객은 내장된 자동화 및 툴링으로 인해 더 큰 운영 효율성을 누릴 수 있습니다. 고객은Oracle Autonomous Database를사용하여 수동 데이터베이스 관리 작업과 인적 오류를 제거함으로써 더 큰 효율성을 달성할 수 있습니다.
클라우드 시대를 위한 Exadata Exascale 지능형 데이터 아키텍처
Exadata Exascale은 클라우드를 위한 세계 유일의 지능형 데이터 아키텍처입니다. Exascale은 Exadata의 장점과 클라우드의 장점을 결합한 혁신적인 도약입니다.Exascale은 스토리지 관리를 분리하고 단순화하여 Exadata 플랫폼에서 컴퓨팅 및 스토리지 리소스를 관리하는 방식을 재구성합니다. 조직이 Exadata에 기대하는 업계 최고의 데이터베이스 성능, 가용성 및 보안 표준을 보장합니다. Exadata X11M의 극한 성능과 결합된 Exascale은 더 큰 데이터베이스 배포 유연성과 간소화된 관리로 운영 효율성을 더욱 높입니다.
Exascale은Exadata에서 데이터베이스 스냅샷 및 복제에 대한 재구성된 접근 방식을제공합니다 .모든 읽기/쓰기 데이터베이스 또는 플러그형 데이터베이스에서 공간 효율적인 씬 복제를가능하게 하여 개발자 생산성을 크게 향상시킵니다. Exascale은 모든 Oracle 23ai 데이터베이스에 기본 Exadata X11M 성능을 제공하는 동시에 개발, 테스트 및 배포 파이프라인 요구 사항과 원활하게 통합됩니다.
Exascale의 데이터베이스는 Exadata X11M 스토리지 서버의 모든 사용 가능한 스토리지에 자동으로 분산되어 I/O에 대한 초저지연 14마이크로초 RDMA와XRMEM 및 플래시에서 최대 500GB/s 처리량과 모든 워크로드에 사용 가능한 최대 수천 개의 코어를 제공하는 데이터베이스인식 지능형 Smart Scan을 제공합니다. 여러 스토리지 서버에서 자동으로 데이터를 복제하여 내결함성과 안정성을 보장합니다.
선택과 유연성
Exadata X11M은 온프레미스 시스템으로 사용할 수 있으며, OCI의 Exadata Cloud Infrastructure는 멀티클라우드 파트너십을 통해 사용할 수 있으며, Exadata Cloud@Customer로 사용할 수 있으므로 고객은 데이터 센터에서 Oracle Database 클라우드 서비스를 실행할 수 있습니다. 전용 퍼블릭 클라우드 및 하이브리드 클라우드 환경에서 고객은 Oracle Exadata Database Service와 Oracle Autonomous Database를 혼합하여 실행할 수 있습니다. 이러한 모든 환경에서 고객은 동일한 완벽하게 호환되는 Oracle Database와 동일한 Exadata 기능에 액세스하여 필요한 곳에서 애플리케이션을 변경하지 않고도 워크로드를 실행할 수 있습니다.
멀티클라우드 배포에서 Oracle Database는 AWS, Google Cloud 및 Microsoft Azure 데이터 센터의 Exadata X11M에서 OCI 서비스로 실행됩니다. 고객은Oracle Real Application Clusters를포함한 모든 Oracle Database 기능에 액세스하여 계획된 다운타임과 계획되지 않은 다운타임 동안 확장 및 고가용성을 고유하게 활성화할 수 있습니다. 또한 고객은 AWS, Google Cloud 또는 Microsoft Azure의 애플리케이션, AI 모델 또는 분석 도구를 저지연 네트워크 연결로 지원되는 Oracle 데이터베이스의 데이터와 결합하여 해당 클라우드 서비스 공급자에 대한 기존 소비 약정을 활용할 수 있습니다.
Exadata X11M을 배포할 위치와 실행할 기능을 선택할 수 있을 뿐만 아니라, 고객은 데이터베이스 및 스토리지 서버에 대한 현재 요구 사항에 맞게 시스템을 구성하고 향후 점진적으로 확장할 수 있는 유연성도 있습니다. 모든 배포 옵션은 최소 2개의 데이터베이스 서버와 3개의 스토리지 서버를 가질 수 있으며 각각 수십 개까지 확장할 수 있습니다. 또한 온프레미스 고객은 다양한 데이터베이스 서버와 스토리지 서버 구성을 선택할 수 있는 유연성도 있습니다.
엑사데이터 하드웨어
Exadata X11M 데이터베이스 서버
Exadata X11M 데이터베이스 서버에는 최신 96코어 AMD CPU 2개가 탑재되어 이전 세대보다 코어당 최대 25% 더 빠른 성능을 제공합니다. OCI 및 멀티클라우드 환경에 배포된 구성에는 모든 가상 머신에 대해 데이터베이스 서버당 1,390G의 사용 가능한 DDR5 메모리가 제공됩니다. Exadata Cloud@Customer 구성은 모든 가상 머신에 대해 데이터베이스 서버당 1,390G, 2,090G, 2,800G의 사용 가능한 메모리 구성을 제공합니다. 온프레미스 시스템은 1.5T, 2.25T, 3T 외에도 데이터베이스 서버당 512G의 물리적 메모리를 사용할 수 있습니다. Exadata X11M 데이터베이스 서버의 메모리 대역폭은 Exadata X10M에 비해 33% 증가하여 분석 및 AI와 같은 메모리 대역폭에 민감한 작업을 크게 가속화합니다. 데이터베이스 서버의 로컬 스토리지는 두 개의 3.84T NVMe SSD 드라이브를 계속 활용하며, 고객은 이를 네 개의 3.84T 드라이브로 확장할 수 있습니다.
마지막으로, Exadata X11M 데이터베이스 서버는 개인 네트워크에 사용되는 듀얼 포트 RDMA over Converged Ethernet(RoCE) 네트워크를 위한 PCIe 5 데이터 인터페이스를 계속 활용합니다.
Exadata X11M 대용량 및 Extreme Flash 스토리지 서버
모든 배포에 사용 가능한 Exadata X11M 대용량(HC) 스토리지 서버와 온프레미스에서 사용 가능한 Extreme Flash(EF) 스토리지 서버는 모두 32코어 AMD CPU 두 개를 사용하는데, 이는 이전 세대보다 최대 11% 더 빠릅니다.
스토리지 서버의 메모리는 DDR5를 계속 활용하고 데이터베이스 서버와 동일한 33% 메모리 대역폭 증가를 얻어 4800MT/s에서 6400MT/s로 점프합니다. 더 높은 메모리 성능은 Exadata RDMA Memory(XRMEM) 읽기 대기 시간을 21% 개선하여 X10M에서 17마이크로초에서 X11M에서 놀라울 정도로 빠른 14마이크로초로 개선합니다!
Exadata Smart Flash Cache에 사용된 4개의 6.8T 성능 최적화 플래시 카드가 PCIe 5로 이동함에 따라 Exadata X11M HC 및 EF 스토리지 서버에서플래시 처리량이 최대 2.2배 증가합니다 . Exadata X11M에서HC 스토리지 서버의 Smart Scan 처리량은 이제X10M에서 스토리지 서버당 45GB/s에서 100GB/s로 증가했습니다. 또한 Smart Scan은 이제 XRMEM과 플래시 모두에서 지능적으로 읽을 수 있어 X11M HC 또는 EF 스토리지 서버당 최대 500GB/s의 처리량을 제공하거나 이전에 플래시에서만 가능했던 처리량의 11배를 제공합니다. 사실, 완전히 구성된 클라우드 시스템은 이제 31TB/s 이상의 속도로 데이터를 스캔할 수 있는 잠재력을 가지고 있습니다. 이는 정말 놀라운 속도입니다.
스토리지 서버에서 RoCE 네트워크 패브릭은 데이터베이스 서버에서 사용되는 것과 동일한 듀얼 포트 RoCE 네트워크 카드를 활용합니다.
HC 스토리지 서버의 12개 하드 디스크 드라이브 용량은 각각 22T로 유지되며, 스토리지 서버당 총 원시 용량은 264T입니다.
EF 스토리지 서버의 4개 용량 최적화 플래시 드라이브도 30.72T로 유지되어 서버당 원시 스토리지 용량은 122.88T가 됩니다.
데이터베이스 서버 X11M-Z
Database Server X11M-Z는 온프레미스 Exadata X11M 배포를 위한 새로운 옵션입니다. 32개 코어가 있는 단일 AMD EPYC 프로세서를 사용하며 768G 또는 1.25T DDR5 메모리 구성으로 제공됩니다. 이 서버의 다른 모든 구성 요소는 위에서 설명한 표준 데이터베이스 서버의 구성 요소와 동일합니다.
대용량 X11M-Z 스토리지 서버
온프레미스 Exadata X11M 배포의 새로운 기능으로는 대용량 X11M-Z 스토리지 서버(HC-Z)가 있습니다. 이 서버는 표준 대용량 스토리지 서버와 동일한 모든 구성 요소를 사용하며, 6개의 22개 드라이브, 2개의 6.8T 성능 최적화 플래시 카드, 768G DDR5 DRAM(XRMEM의 경우 576G)을 제공합니다. 표준 HC 스토리지 서버와 동일한 초저속 14마이크로초 8K OLTP 읽기 지연 시간, 플래시에서 50GB/s Smart Scan 처리량, XRMEM에 캐시된 데이터를 스캔할 때 최대 250GB/s를 제공합니다.
Exadata X11M데이터베이스 서버 X11M-Z및대용량 X11M-Z 스토리지 서버.X11M-Z 서버는 기존 또는 새로운 Exadata Database Machine 배포의 기반으로 통합할 수있어 온프레미스 고객에게 더 많은 유연성을 제공합니다.
Exadata X11M 스토리지 확장 랙
온프레미스 시스템의 경우 Exadata Storage Expansion Rack X11M 시작 구성은 최신 Exadata X11M 대용량 및 Extreme-Flash Storage Server를 지원합니다. 고객은 기존 X8M, X9M, X10M 및 X11M Storage Expansion Rack에 대용량, Extreme-Flash 및 대용량 X11M-Z Storage Server를 추가하여 가장 까다로운 데이터베이스 배포를 충족하도록 스토리지 요구 사항을 확장할 수 있습니다.
Exadata System Software 25.1에서 AI Smart Scan은 각 스토리지 서버가 적응형 상위 K 목록을 유지하여 스토리지 서버에서 데이터베이스로 전송되는 데이터 양을 더욱 줄일 수 있도록 상위 K 계산을 더욱 최적화했습니다. 스토리지 서버에서 쿼리에 대한 상위 K를 적응적으로 계산하고 추적하면 스토리지 계층에서 관련 없는 데이터가 필터링되어 데이터베이스로 반환되는 데이터 양이 최대 4.7배까지 줄어듭니다.
적응형 top-K 필터링 외에도 벡터 거리 투영은 최대 4.6배 더 빠른 벡터 검색 쿼리와 최대 24배 더 적은 데이터베이스로 전송되는 데이터를 제공합니다. 데이터베이스 서버에서 벡터 거리를 값비싼 재계산하는 것을 방지하여 CPU 리소스를 다른 작업에 사용할 수 있습니다.
마지막으로, AI Smart Scan은 FLOAT32에 비해 92% 이상의 정확도를 유지하면서 INT8 및 BINARY 차원 형식의 벡터에 대한 AI 쿼리 성능을 각각 최대 8배 및 32배까지 더욱 가속화합니다.
엑사데이터 엑사스케일
Exascale은 디스크 드라이브나 용량 최적화된 플래시 장치에 장애가 발생한 경우 데이터를 성공적으로 재조정하는 데 필요한 여유 공간을 최대 29%에서 최소 3%까지 줄일 수 있습니다. 이는 Exadata 플랫폼의 크기를 조정할 때 용량, 가용성 및 비용의 균형을 맞춰야 하는 머신 관리자에게 상당한 개선입니다.
ASM 리밸런싱 자동 가속
Exadata System Software 25.1을 탑재한 Exadata X11M은 23ai Grid Infrastructure와 함께 데이터베이스 I/O를 지속적으로 모니터링하고 ASM 재균형 조정 성능을 자동으로 높여서 성능을 극대화하고, 데이터베이스 성능에 영향을 주지 않고 익스텐트를 재균형 조정하는 데 걸리는 시간을 줄여줍니다.
극한의 성능과 효율성, 어디서나 이용 가능
Exadata X11M은 고객 이 X10M과 동일한 가격으로AI, 미션 크리티컬 OLTP, 분석 등 모든 워크로드에 대해 극한의 성능을 달성할 수 있도록 하는 탁월한 차세대 Exadata입니다.
극한의 성능을 통해 고객은 더 적은 시스템에서 더 많은 데이터와 사용자로 더 많은 워크로드를 실행할 수 있습니다. 지능형 전력 소비 최적화 기능과 배포 및 운영 모델 선택과 결합된Exadata X11M은 극한의 효율성을 제공하고 고객의 비용, 전력 및 시간을 절약합니다.
Exadata X11M은 OCI에서 Exadata Cloud@Customer로 온프레미스에서 사용할 수 있으며, 멀티클라우드 파트너십을 통해 Azure, Google Cloud 및 AWS에서 사용할 수 있습니다. 이러한 전례 없는 수준의 선택권을 통해 고객은어디에서나 데이터베이스 애플리케이션을 개발하고동일한 100% 호환 Oracle Database 및 동일한 Exadata 기능으로원하는 곳에 배포할 수 있습니다.
Exadata 제품 관리 및 엔지니어링 팀은 Exadata 시스템 소프트웨어의 최신 릴리스인 Exadata System Software 25.1의 제공을 발표합니다. 도입되었습니다. 기존 기능을 강화하여 Oracle Database를 온프레미스 또는 클라우드에서 실행하기 위한 최적의 플랫폼으로 Exadata의 입장을 강화합니다.
AI 스마트 스캔 적응형 Top-K 필터링, 벡터 거리 투영 및 BINARY 벡터
Exadata System Software 24ai와 Oracle Database 23ai는 기존 애플리케이션을 사용하여 새로운 애플리케이션을 구축하고, 기존 애플리케이션에 시맨틱 검색 기능을 추가하고, 새로운 인공 지능 기술과 패턴을 활용할 수 있는 획기 AI Vector Search 기능을 새롭게 도입했습니다. 알고리즘과 최적화를 풀어 이러한 유스 케이스를 독자적으로 고속화합니다.이를 AI 스마트 스캔이라고 부릅니다.
AI 스마트 스캔의 기본 개념은 Exadata 스마트 스캔과 핵심 개념이 동일합니다. . Exadata 이외의 시스템에서 벡터 검색 쿼리에서 많은 양의 데이터를 삭제하고 마지막으로 가장 관련성이 높은 Top-K 결과에 도달하기 전에 각 벡터 간의 거리를 계산하려면 대량의 벡터 데이터를 스토리지에서 데이터베이스로 전송해야합니다. Exadata는 쿼리를 투명하게 스토리지 서버로 오프로드하고 스토리지 서버의 벡터 간 거리 계산을 자동으로 병렬화하고 최종 처리를 위해 Top-K 벡터와 연관된 비즈니스 데이터만 데이터베이스 서버로 전송합니다. 했습니다.
적응형 Top-K 필터링
Exadata System Software 25.1에서는 Top-K 계산을 더욱 최적화하여 각 스토리지 서버가 실행 중인 Top-K를 유지하고 스토리지 서버에서 데이터베이스로 전송되는 데이터의 양을 더욱 줄였습니다.
그렇다면 톱 K를 어떻게 계산합니까? 에서 움직임을 되돌아 봅니다. 각 스토리지 서버는 스캔 한 각 디스크의 공간에 대한 Top-K 벡터를 결정합니다. , 모든 스토리지 서버에서 데이터베이스 이 서버로 전송됩니다. 위의 예로 돌아가면 스캔 된 디스크의 모든 영역에 대해 해당 영역의 Top-K가 결정됩니다. 최종 Top-K가 결정되었습니다.
ESS 25.1에서는 이 모든 데이터를 데이터베이스 서버로 보내는 것이 아니라(대부분은 글로벌 Top-K가 결정될 때 무관합니다), 각 스토리지 서버는 로컬로 실행 중인 Top -K를 유지하고 기존 세트를 개선하는 벡터만 반영하도록 업데이트됩니다. 즉, 스토리지 서버에서 쿼리의 Top-K를 추적하면 스토리지 계층에서 관련이 없는 데이터를 필터링하여 데이터베이스 서버에 반환되는 데이터의 양을 최대 4.69배 줄일 수 있습니다.
.
벡터 거리 투영
Exadata System Software 25.1은 스토리지 서버 당 Top-K 결과와 초기 입력 벡터 사이의 거리를 다시 계산하여 CPU 리소스를 대량으로 소비하는 프로세스를 데이터베이스 서버가 아닌 스토리지 서버에서 수행합니다. , 이미 계산 된 벡터 거리 벡터 서버 조회에 최대 4.6배 빨라지고 데이터베이스로 전송되는 데이터가 최대 24배 줄어듭니다. 를 데이터베이스 서버로 보낼 필요가 없습니다.
이진 벡터
Database 23ai 릴리스 업데이트 5(23.5)에서는 초기 Database 23ai 릴리스에서 추가된 기존 FLOAT32 및 FLOAT64 벡터 차원 형식 외에도 INT8 및 BINARY 벡터 차원 형식이 추가되었습니다. 특히 최대 32분의 1의 스토리지로 끝나 92%를 넘는 정확도를 유지하면서 최대 40배 빠른 거리 계산을 가능하게 합니다. 는 다른 차원 형식과 거의 동일한 정확도로 빠르게 실행됩니다.
CREATE TABLE SUPPORT_INCIDENTS (id NUMBER,
incident_text VARCHAR2(1000),
incident_vector VECTOR(1024, BINARY));
Exadata에서 AI Smart Scan은 INT8 및 BINARY 차원 형식 벡터의 AI 쿼리 성능을 각각 최대 8배 및 32배 가속화하면서 FLOAT32에 비해 92% 이상의 정확도를 유지합니다.
Exascale 자유 공간 관리
Exadata Exascale은 Exadata 시스템 소프트웨어에 내장된 클라우드의 새로운 지능형 데이터 아키텍처입니다. 내부의 데이터를 관리하는 것입니다. 모든 스토리지 클러스터 및 데이터베이스의 범위를 종합적으로 관리합니다. 따라서 Exascale은 디스크 드라이브 또는 용량 최적화 플래시 장치에 장애가 발생하면 스토리지 풀의 스토리지 서버 수와 유형에 따라 데이터를 성공적으로 재조정하는 데 필요합니다. 여유 공간을 최대 29%에서 최대 3%로 줄였습니다. 이는 Exadata 플랫폼 사이징을 구성할 때 용량, 가용성 및 비용의 균형을 맞추어야 하는 머신 관리자에게 큰 개선입니다.
Exadata에서 각 스토리지 서버는 장애 그룹입니다. 3개의 스토리지 서버로 구성하는 경우, 장애가 발생한 디스크 또는 플래시 디바이스를 재구성하여 중복성을 유지하기 위해 스토리지 서버 내에서 충분한 여유 공간이 필요합니다. 그러나 네 번째 (또는 그 이상) 스토리지 서버를 추가하면 실패 생성 된 디스크의 데이터를 다른 서버로 재조정하여 대상 파트너 디스크 수를 늘리고 작업을 성공적으로 수행하는 데 필요한 여유 공간을 크게 줄일 수 있습니다. 예약된 여유 공간에는 Exascale 스토리지 풀이 둘 다 동시에 활성화되므로 높은 중복성과 일반 중복성으로 저장된 파일이 포함됩니다.
Exascale Volume Clone 향상
Exascale의 일부로 Exadata System Software 24ai에 도입된 Exascale Volume은 블록 디바이스를 공유 Exadata 스토리지 서버에 작성하고 Exadata 데이터베이스 서버에 마운트하고 ACFS, XFS, ext4와 같은 파일 시스템을 사용합니다. 할 수 있도록 Exadata의 새로운 기능입니다. 파일 시스템 스토리지 외에도 VM 이미지 파일을 공유 스토리지에 저장하여 고밀도 가상 머신 구성 (온 프레미스 X10M 데이터베이스 서버 당 최대 50VM)을 가능하게합니다. 또한 사용됩니다. 공유 Exadata Exascale 스토리지는 Exascale Volume이 RDMA를 지원하므로 파일 시스템 및 VM 이미지의 사용 가능한 용량을 크게 늘려 성능을 향상시킵니다.
관리자는 기존 Exascale Volume에서 읽기 전용 스냅샷과 전체 또는 씬 읽기/쓰기 클론을 생성할 수 있습니다. 읽기 전용 스냅샷을 만드는 것은 같은 시점에서 여러 복제본을 동시에 필요로 할 때 유용합니다.
Exadata System Software 25.1부터 Exascale Volume Clone을 자동으로 투명하게 생성하면 필요한 읽기 전용 스냅샷이 만들어져 단일 볼륨 복제가 필요한 경우 작업 단계가 줄어듭니다.
Automatic Acceleration of ASM Rebalance(ASM 재조정 자동 가속화)
Exadata의 ASM은 관리자가 ASM이 재조정 작업을 수행하는 속도를 조정하거나 설정하는 기능을 수년 동안 제공해 왔습니다. . 이름에서 알 수 있듯이 각 디스크의 데이터 양이 분산되도록 스토리지 서버 전체에서 재조정됩니다. 능력을 결정하려면 재조정 작업이 얼마나 강력한지 설명하기 위해 데이터베이스 워크로드를 지속적으로 모니터링하고 이해해야합니다. 더 빨라지고 중복성이 빨리 복원됩니다. 반대로, 재조정 전력이 적을수록 재조정 실행이 느려지고 데이터베이스 I / O 성능의 영향이 최소화됩니다.
이 릴리스부터 Exadata 시스템 소프트웨어는 23ai Grid Infrastructure와 결합하여 데이터베이스 I/O를 지속적으로 모니터링하고 ASM 재조정 전력을 극대화하기 위해 재조정 강도를 자동으로 조정하여 데이터베이스 성능에 영향을 줍니다. 없이 익스텐트 리버러 시간을 단축합니다. 재조정 전원을 자동으로 동적으로 조정하고 디스크 장애 후 중복성을 최대 3.6배 빠르게 복원하고 스토리지 서버 업데이트 후 재동기화 작업을 2배 가속화하고 스토리지 서버 추가를 최대 2.6배 가속화합니다.
Oracle Unbreakable Kernel 7
이 릴리스에는 Exadata에서 Oracle Unbreakable Enterprise Kernel (UEK) 7이 도입되어 분석 쿼리의 성능을 최대 20% 가속화할 수 있는 뛰어난 스케줄러와 Oracle Database 23ai 바이너리의 실행 가능 명령 부분을 Huge Pages 로딩하는 기능을 포함하여 상당한 개선이 가능하며 OLTP 성능이 최대 12% 향상됩니다. 을 업그레이드 할 때 매우 신중한 접근 방식을 취합니다.이 경우 OS는 Oracle Linux 8 Update 10에 남아 있으며 커널은 최신 UEK 7 Update 3으로 업그레이드됩니다.이 접근법을 사용하면 고객과 타사 응용 프로그램 공급 업체가 OS의 응용 프로그램, 도구 및 유틸리티를 충분히 인증 할 수 있습니다. Oracle Linux 릴리스를 업그레이드할 필요 없이 최신 기능과 수정사항이 제공되어 향후 혁신의 기반을 구축할 수 있었습니다.
RDMA over Converged Ethernet (RoCE) 네트워크 (X8M 이상)가있는 모든 Exadata 시스템의 경우 커널은 베어 메탈 서버, KVM 호스트 및 KVM 게스트에서 UEK 7로 업그레이드됩니다. 시스템에서 Dom0 도메인 (가상화를 위해 배포 된 데이터베이스 서버)은 Oracle Linux 7에서 UEK 6으로 업그레이드되고 베어 메탈 서버, 가상 머신 (DomU)은 Oracle Linux 8 UEK 6을 계속 실행합니다.
사용자에게 추가된 Linux 패키지를 데이터베이스 서버를 업데이트할 때 유지하도록
고객은 백업 유틸리티, 모니터링 에이전트, 보안 애플리케이션 등과 같은 데이터베이스 서버에 추가 소프트웨어를 설치합니다. 없는 추가 Linux RPM (종속성)이 필요합니다. 고객은 이러한 종속성을 해결하기 위해 표준 Linux 유틸리티를 사용하여 필요한 RPM을 설치할 수 있습니다. 필요한 추가 패키지는 종속성 충돌을 해결하기 위해 업데이트가 필요합니다. 이 릴리스 이전에 이러한 충돌을 해결하기 위해 이러한 추가 패키지 및 소프트웨어를 제거하고 패치 관리자 (patchmgr)를 사용하여 데이터베이스 서버를 업데이트 한 다음 추가 패키지 및 소프트웨어를 다시 설치했습니다.
Exadata System Software 25.1부터 관리자는 사전 점검 단계와 업그레이드 단계 모두에서 patchmgr을 사용하여 추가 Linux 패키지를 관리할 수 있습니다. 소프트웨어를 삭제할 필요가 없습니다.
스토리지 서버 업그레이드 가속화
많은 작업을 최적화하고 병렬화함으로써 스토리지 서버 업데이트가 이전 릴리스와 비교하여 최대 1.45배 빨라졌습니다. 이렇게 하면 각 서버에서 재생해야 하는 데이터가 줄어들어 재동기화 단계가 가속화됩니다.
중앙 관리의 확장성
dcli 유틸리티를 사용하면 Exadata 서버 전체에서 중앙 관리가 용이합니다. 관리자는 이미지 정보, cellcli 및 dbmcli와 같은 Linux 명령을 여러 서버에서 동시에 실행할 수 있습니다. Exadata 배포로 원활하게 확장되므로 단일 dcli 실행으로 수백에서 수천 개의 서버를 관리할 수 있습니다.
고가용성을 위한 RoCE 네트워크 탄력성 커버리지 향상
Exadata System Software 24ai에 도입된 exaportmon은 Exadata의 사설 네트워크를 지속적으로 모니터링하는 모든 Exadata 데이터베이스 및 스토리지 서버의 새로운 프로세스입니다. RDMA over Converged Ethernet (RoCE) 그리고 개인 IP 주소가 있고 클러스터 안정성을 보장하고 클러스터 중지를 방지하려면 고 가용성이어야합니다. 각 서버가 연결된 RoCE 리프 스위치 구성 오류 또는 중지. 이로 인해 온라인으로 보이지만 네트워크 트래픽이 흐를 수없는 중지 된 포트가 발생할 수 있습니다. mon은 중지된 스위치 포트를 자동으로 감지하여 중지된 포트의 IP 주소를 데이터베이스 서버 또는 스토리지 서버의 다른 활성 RoCE 포트로 이동하여 네트워크 트래픽을 플로우할 수 있도록 합니다. Exaportmon은 스위치 포트 문제가 해결된 후 IP 주소를 원래 포트로 자동 리턴합니다.
이 릴리스에서 Exaportmon은 네트워크 패킷의 손상을 보내는 (또는 다른 대증적인 동작을 나타내는) 네트워크 트래픽이 흐르는 온라인 RoCE 스위치 포트를 모니터링합니다. 이 스위치를 식별하고 데이터베이스 서버 또는 스토리지 서버의 건강한 스위치와 연관된 포트를 종료합니다. 가용성이 향상됩니다.
RDMA Network 업데이트
Exadata의 사설 네트워크는 아키텍처, 성능, 안정성 및 보안에 필수적입니다.
Exadata X8M 이상 (X8M-X10M) - Cisco RoCE 스위치가 NX-OS 10.3.6으로 업데이트
Exadata X7 및 X8 배포 - InfiniBand 스위치가 2.2.17-2로 업데이트
Exadata의 모든 업데이트와 마찬가지로 스위치 업데이트는 고가용성을 유지하기 위해 롤링 방식으로 적용됩니다.
Exadata Cache Statistics (ecstat) 업데이트
Exadata 시스템 소프트웨어 24ai(24.1)에서 사용 가능한 Exadata 캐시 통계(ecstat) 유틸리티는 Exadata 스토리지 서버의 Exadata 플래시 캐시에 대한 자세한 실시간 통찰력을 제공합니다. top 및 iostat와 같은 Linux 유틸리티와 마찬가지로 ecstat는 클라이언트 데이터베이스 I/O를 미디어 유형 및 I/O Reason별로 분해하여 워크로드, 처리량 및 성능을 시각화합니다.
Exadata System Software 25.1의 ecstat의 새로운 기능은 플래시 캐시 우회 이유, 상위 플래시 캐시 영역 소비자 및 상위 I/O 소비자에 대한 통찰력을 제공합니다.
ecstat는 실시간 모니터링을 위해 스토리지 서버에서 직접 실행할 수 있으며 Exawatcher가 수집하는 데이터에 자동으로 포함됩니다.
기본적으로 보안됨
Exadata System Software 20.1에서는 Exadata Secure RDMA Fabric Isolation(단축형에서는 Secure Fabric)이라는 뛰어난 보안 기능이 도입되었습니다. 이후의 새로운 Exadata 배포에 사용할 수 있습니다. (RoCE) 사설 네트워크를 사용하여 가상 머신 클러스터간에 횡단적인 무단 액세스를 허용하지 않습니다. 분리 및 보안 요구 사항이 있는 통합 및 클라우드 환경에서 보안을 대폭 향상시킵니다.
Exadata System Software 25.1 및 2024년 10월의 Oracle Exadata Deployment Assistant(OEDA)에서는 새 X8M 및 새 가상화 배포에 대해 Secure Fabric이 자동으로 기본적으로 선택됩니다. 클라우드의 X8M 및 새로운 Exadata 배포와 일치하며, 모두 Secure Fabric이 구성된 상태에서 배포됩니다.
하드웨어, Grid Infrastructure 및 Database의 최소 요구 사항
하드웨어
Exadata System Software 25.1은 모든 X7(X7-2 및 X7-8) 및 새로운 Exadata Database 시스템 및 스토리지 확장 랙에서 사용할 수 있습니다.
Grid Infrastructure 및 Database
Exadata System Software 25.1에는 Oracle Database 및 Grid Infrastructure에 대한 다음과 같은 최소 소프트웨어 요구 사항이 있습니다.
지원되는 최소 Oracle Grid Infrastructure 릴리스:
릴리스 19c: 버전 19.23, 2024년 4월 릴리스 업데이트(RU)
릴리스 23ai: 버전 23.5(2024년 7월)
지원되는 최소 Oracle Database 릴리스 :
릴리스 19c: 버전 19.21, 2023년 10월 릴리스 업데이트(RU)
릴리스 23ai: 버전 23.5(2024년 7월)
Exadata 시스템 소프트웨어
릴리스 25.1.0으로 업데이트하기 전에 기존 시스템에 필요한 Oracle Exadata System Software의 최소 버전 :
[WARNING] [DBT-06801] Specified Fast Recovery Area size (140,000 MB) is less than the recommended value. CAUSE: Fast Recovery Area size should at least be three times the database size (91,698 MB). ACTION: Specify Fast Recovery Area Size to be at least three times the database size. [WARNING] [DBT-11153] Character set specified (KO16MSWIN949) is different from that of the character set (AL32UTF8) in the template. Character set mismatch may cause data truncation. ACTION: Make sure the character sets uses the same encoding scheme. [WARNING] [DBT-06801] Specified Fast Recovery Area size (140,000 MB) is less than the recommended value. CAUSE: Fast Recovery Area size should at least be three times the database size (99,890 MB). ACTION: Specify Fast Recovery Area Size to be at least three times the database size. Prepare for db operation 8% complete Creating and starting Oracle instance 10% complete 11% complete 15% complete Creating database files 16% complete 17% complete 23% complete Creating data dictionary views 25% complete 30% complete 31% complete 32% complete 37% complete 39% complete 42% complete 46% complete Creating cluster database views 48% complete 62% complete Completing Database Creation 65% complete 68% complete 69% complete Executing Post Configuration Actions 92% complete Running Custom Scripts 100% complete Database creation complete. For details check the logfiles at: /u01/app/oracle/cfgtoollogs/dbca/ORCL. Database Information: Global Database Name:ORCL System Identifier(SID) Prefix:ORCL Look at the log file "/u01/app/oracle/cfgtoollogs/dbca/ORCL/ORCL1.log" for further details.
SQL*Plus: Release 19.0.0.0.0 - Production on Mon Dec 9 20:10:35 2024 Version 19.25.0.0.0
Copyright (c) 1982, 2024, Oracle. All rights reserved.
Connected to: Oracle Database 19c Enterprise Edition Release 19.0.0.0.0 - Production Version 19.25.0.0.0
SQL> set linesize 120 SQL> col parameter for A30 SQL> col value for A20 SQL> select parameter,value from NLS_DATABASE_PARAMETERS where parameter like '%CHARACTERSET';
PARAMETER VALUE ------------------------------ -------------------- NLS_NCHAR_CHARACTERSET AL16UTF16 NLS_CHARACTERSET KO16MSWIN949
결과 : 명시적으로 지정한 값으로 생성됨.
- 테스트 후 삭제
[ORCL]oracle@db01:/home/oracle# dbca -silent -deleteDatabase -sourceDB ORCL -sysDBAUserName sys -sysDBAPassword XXXXX [WARNING] [DBT-19202] The Database Configuration Assistant will delete the Oracle instances and datafiles for your database. All information in the database will be destroyed. Prepare for db operation 32% complete Connecting to database 39% complete 42% complete 45% complete 48% complete 52% complete 55% complete 58% complete 65% complete Updating network configuration files 68% complete Deleting instances and datafiles 77% complete 87% complete 97% complete 100% complete Database deletion completed. Look at the log file "/u01/app/oracle/cfgtoollogs/dbca/ORCL/ORCL2.log" for further details.