자원 사용현황 점검 보고서community.hpe.com/hpeb/attachments/hpeb/hpsc-46/8670/1... ·...
Transcript of 자원 사용현황 점검 보고서community.hpe.com/hpeb/attachments/hpeb/hpsc-46/8670/1... ·...
자원 사용현황점검 보고서
Technical Support Expert CenterSeptember 24 2003
page 22003-09-25
목 차
1. 개 요
2. 시스템 현황
3. 결과 요약
4. 자원 사용 현황 정리1. CPU & Memory2. Disk I/O3. Network I/O
5. 상세 결과 – Utilization Graph
page 32003-09-25
1. 개요
1. 목표
– 현재 시스템 자원 사용량 점검하여 향후 시스템 도입시기준 데이터로 사용
2. 대상 서버–
3. 성능 데이터 수집 기간– 2003년 8월 26일 ~ 2003년 8월 30일
4. 사용 도구– Collect ( 성능 데이터 수집 도구)– Collgui ( 성능 데이터 분석 도구
page 42003-09-25
2. 시스템 Resource 현황
E servers
기타
M servers
FDDI4GB2(6/252)GS60
FDDI2GB2(56/466)A4000
FDDI8GB2(67/500)ES40
Gigabit 4GB4(68/1G)ES45
Gigabit6GB4(68/1G)ES45
Gigabit4GB3(68/1G)ES45
Gigabit4GB2(68/1G)ES45
FDDISW800
4GB2(6/525) GS60
FDDI4GB2(67/700)GS60E
FDDIESA1000
4GB4(6/525)GS60
NICStorageMemoryCPUModelServers
•LCD* : Tru64 V4.0F, ERP* : Tru64 V5.1A
page 52003-09-25
3. 자원 사용 검검 결과 요약
•L 1, L 2 Cluster•CPU, Memory, Storage system 모두 용량 부족 상태
•ESA1000의 처리용량 이상의 Disk I/O 발생
•CPU가 I/O wait로 대기하는 시간이 많음
•L 3, L 4 Cluster•CPU, Memory, Storage system 모두 용량 부족 상태
•E Servers•E server : CPU 사용율이 높음 – 70~85% at pick-hour•E V, E P : Memory 사용율이 높음 – 100% , Page-out 발생
•E S : I/O wait time 발생 – storage system 용량 부족 의심
•기타 servers•L S : CPU, Memory, Storage system 모두 용량 부족 상태
•L B : CPU, Storage system 용량 부족 상태
page 62003-09-25
4. Resource 사용 현황 (CPU, Memory)
항목
Server
Paging -간헐적2GB4GB(100%)High I/O wait100%60~70%2cpu/4GB
Paging-빈번1.1GB2GB(100%)I/O wait99%80~95%2cpu/2GB
No paging4.9GB7.6GB(95%)I/O wait100%95~100%2cpu/8GB
No paging0.8GB4GB(65%)I/O wait60%50~60%4cpu/6GB
No Paging0.4GB5.2GB(85%)No I/O wait52%20%4cpu/6GB
Paging –빈번0.2GB4GB(100%)No I/O wait89%35~55%3cpu/4GB
Paging -빈번0.2GB4GB(100%)No I/O wait100%70~85%2cpu/4GB
Paging 발생1.5GB4GB(100%)I/O wait 100%90~100%2cpu/4G
Paging – 간헐적1.4GB4GB(100%)High I/O wait100%50~70%2cpu/4GB
Paging 발생1.4GB4GB(100%)High I/O wait100%70~95%4cpu/4GB
IssueUBCUsed memoryIssueMax평균사용율
Memory 현황 – Peak TimeCPU 현황 – Peak TimeSpec
•붉은색 : Resource 부족 , 노란색 : Resource 최대 사용 중
page 72003-09-25
4. Resource 사용 현황 (Disk I/O)
MB/sec Transfers/sec I/O BUS항목
Server
11821050 이하Bus5
6.85~69540~60Bus4
9.17~8300200~250Bus5
21~23시, read 작업1812~14410250~300Bus2
21~23시, write 작업11.811.5190180~190Bus3
Cluster shared storage systemCPU I/O Wait Time 발생
97.8~8.2520400~500Bus4
215~1545050~250Bus4
Cluster shared storage systemCPU I/O Wait Time이 큼
3515550250Bus4
IssueMaxAvgMaxAvg
•M 1,2 cluster – ESA1000 storage system : 8000transfers/sec, 25MB/sec 성능 제공
•M 3,4 cluster – SW800 storage system
•최대 사용시의 평균
page 82003-09-25
4. Resource 사용 현황 (Disk I/O) -계속
MB/secTransfers/secI/O BUS
항목
Server
E V
E P
E D
E BS
L 1
1481000950ALL
151314501000ALL
1.91.6~1.8220200ALL
CPU I/O Wait Time 발생5010~2022001700ALL
CPU I/O Wait Time 발생4510~251000400~600ALL
IssueMaxAvgMaxAvg
•최대 사용시의 평균
•위 서버들의 경우 모든 Disk들에 부과는 I/O 처리 요구량의 합임
– BUS 별로 분리하지 않았음
page 92003-09-25
4. Resource 사용 현황 (Network I/O)
최대 사용량 비정상적N/A3000~500025002000~2500fta0L S
최대 사용량 비정상적N/A300~60050002000~3000fta0L B
34001000~15008340~80alt0E S
3500100039001500~3000alt0E D
2500150035001500~2000alt0E PP
KB/secPacket/secNIC
항목
Server
E V
L 4
L 3
L 2
L 1
250150~2001200400~700fta0
9020~408540~80alt0
1300250~30035001500~2500fta0
5000010000460400fta0
15009001100400fta0
IssueMaxAvgMaxAvg
•최대 사용시의 평균
•붉은색 : Network Utilization 점검 필요
page 102003-09-25
5. 상세 결과 – Resource Utilization Graph
1. L 1
page 112003-09-25
1. L 1 - CPU
• CPU Utilization • CPU – Utilization – Wait Time 제거
• I/O Wait Time이 지속적으로 발생하고 있음 - Storage system의 병목현상
• LCDMES1와 LCDMES2에 의해 공유되는 ESA1000에 과도한 data 전송이 발생하고 있음
page 122003-09-25
1. L 1 - Memory
• Memory Utilization • Page-out rate
page 132003-09-25
• Disk I/O transfer rate • Disk I/O Data rate
1. L 1 – Disk I/O ( BUS4 )
• 8월 27일 오전에 순간적으로 높은 I/O 발생
page 142003-09-25
• Network I/O transfer rate • Network I/O Data rate
1. L1 – Network I/O
• NIC – fta0 : FDDI interface