SteelEye 표준 제안서

60
SteelEye 소소 SteelEye Protection Suite

description

 

Transcript of SteelEye 표준 제안서

Page 1: SteelEye 표준 제안서

SteelEye 소개

SteelEye Protection Suite

Page 2: SteelEye 표준 제안서

About SIOS Technology Corp.

1997 2001 2005 2007 ~

Open Source Solution

JavaValu

e f

or

Busi

ness

High Availability

Cloud#1 Public Cloud Service(NikkeiBP)

#2 HA Software

#1 APAC Best Partner Award

(RedHat)

SIOS Business Area

•1997: Company Founded•2003: Business partnership with Red Hat•2004: IPO on the JStock Exchange•2005: Acquired SteelEye Technology, Inc

1. About SIOS Technology

10 년 이상 Open Source 환경의 사업기반을 통해 , 위 환경에서 최적화된 이중화 솔루션사업과 Cloud 서비스로 사업영역을 확대

•Established in 1999 as SteelEye Technology, part of SIOS Technology (publicly traded in Japan) since 2005•Provides Best-In-Class High Availability, Data Replication and Disaster Recovery solutions•Over 35,000 licenses installed worldwide•Strategic Relationships with HP, IBM and SAP•Multi-time award winner for Linux High Availability with RedHat and Novell certified solutions•Microsoft Gold Certified Partner

2. About SteelEye Solution

Long terms of Focus on Ensuring Availability and Architecture Consistency

1992AT&T

Bell Lab’s Cluster R&D

NCR1996

Spinout to NCR R&D in South Carolina

SteelEye1999

Combine Cluster& Data Replication

SIOS2006

Software for Innovation Open Solutions

Page 3: SteelEye 표준 제안서

1. 제안 배경

2. SteelEye 소개

별첨 5. DR 정책 수립과 DR 고객 사례

CONTENTS

3. SteelEye 구성 방안

별첨 1. SteelEye 아키텍쳐

4. Reference

5. 결론

별첨 2. H/A 와 유사 솔류션 비교

별첨 4. vAppKeeper 소개

별첨 3. 데이터 복제 방식 비교

별첨 6. Heartbeat 구성과 IO Fencing

Page 4: SteelEye 표준 제안서

1. 제안 배경

Page 5: SteelEye 표준 제안서

4. 변화에 따른 당면 과제•RDB 는 RAC 를 쓰기 위해 고비용의 Oracle 이 계속 강세로 갈것인가 ?•High-End 대용량 SAN Storage 가 Scale-Out 개념의 환경에 적합한가 ?•RDB 이외의 Open Source 기반 S/W 들의 이중화는 어떻게 할것 인가 ?•과거의 이중화나 DR 구축 방안들은 새로운 환경에 적합한가 ?

새로운 환경에 적합한 이중화 및 DR Solution 필요성 대두

•H/W, OS, S/W Full One Vendor•고가 , Permanent License

Host

•H/W, OS One vendor•S/W Multi vendor•개발 , Support 각 Vendor•고가 , Permanent License

Unix Linux

•H/W, OS, S/W Full Multi vendor•Open Source•개발 , Support Multi vendor•저가 , Subscription License

1. IT Trend 변화

•‘Linux’ 와 ‘ x86’ 서버 성능 , 가격 , 안정성 검증 완료•‘ 가상화’와 ‘ Cloud’ 필요성 대두 효율화 , Scale-out, 상면 , 저전력 , 친환경

2. Linux 환경으로의 변화 배경

•UNIX X86, Linux, 가상화 , Cloud 환경•Oracle DB Open Source RDB•Vendor S/W Open Source S/W

3. IT 인프라 환경 변화 x86, 가상화 ,Cloud 환경을 지원하는가 ? 다양한 Linux 배포판을 지원하는가 ? Non-shared storage 도 지원하는가 ? 다양한 이중화 대상 S/W 를 지원하는가 ? 저비용 / 고효율 이중화 /DR 구축 가능한가 ?

1. 제안 배경

Page 6: SteelEye 표준 제안서

2. SteelEye 소개

Page 7: SteelEye 표준 제안서

Server

Data

Instance

Server

Data

Instance

Server

Data

Instance

Server

Instance

H/A

Replication

Active Stand byActive Stand by

H/A

2. SteelEye 소개 기본 개념

모니터링 Resource (Application, Server, Storage, Data, Network 등 ) 을 주기적으로 감시하여 , 장애발생시 자동으로 Fail-over 하여 서비스를 복구

SteelEye 는 Shared Storage 환경”의 H/A Cluster 및 Shared Nothing 환경에서 Replication 을 통한 H/A Cluster 두가지 구성 제공

Shared Storage Cluster Shared Nothing Cluster

Fail-over Fail-over

Page 8: SteelEye 표준 제안서

2. SteelEye 소개 Shared Storage vs. Shared Nothing

Shared Storage Cluster Shared Nothing Cluster

• LAN or WAN recovery 환경도 가능• Shared storage 의 single point of failure

제거• DR 구성에 적합• 기존 Storage Replication 대비 비용 절감• 복제된 데이터도 H/A Automated failover

protection 의 한 구성 요소로 관리

• Fibre Channel SAN, iSCSI or NAS 필요• 동일 Data Center 내에서만 가능• 데이터 정합성 보장을 위한 I/O fencing 은

SCSI 3 PR 기본 제공 ( 추가 fencing 구성 가능 )

• 여러 storage type 지원• 여러 Multi-Path solution 지원• Storage 에 Single Point of failure 존재

Server

Data

Instance

Server

Data

Instance

Server

Data

Instance

Server

Instance

H/A

Replication

Active Stand byActive Stand by

H/A

Fail-over Fail-over

Page 9: SteelEye 표준 제안서

항목 비교 설명

비용Shared Nothing

우수

Shared Storage 로 이중화 구성시 , SAN Switch 및 외장 Storage 로 공유환경을 구성하여야 하므로 , Local Disk 나 DAS 로 Storage 를 구성하는 환경에 비해 Storage 구성비용이 상대적으로 고가

Component이중화

Shared Nothing 우수

Shared Storage 환경으로 이중화 구성시 , 서버 장애는 대비가 되지만 , Storage

장애 시 서비스를 Fail-over 할 수 없는 SPOF(Single Point of failure) 가 존재

Active 노드의Write 성능

Shared Storage 우수

Replication 을 Async 로 구성 시 는 성능이 동일하나 , Sync 방식으로 구성 시 ,

Standby 노드 까지 Write 가 완료 되어야만 , Active 노드의 Write 가 완료되는 구조이므로 , Active 노드의 Write 작업에 일부 성능 저하

Active 노드의Read 성능

동일 Read 는 Active 노드 단독으로만 처리하기 때문에 영향 없음

DR 구성 Shared Nothing Only Replication 을 통한 DR 구성

ReplicatedStorage

활용

임시 테스트환경

Shared Nothing Only

Standby 노드로의 복제를 임시 중단하고 , Standby 시스템을 테스트용으로 활용 가능하다 . 테스트 완료 후 복제를 재개하면 , 전체 스토리지 볼륨을 복제하는 것이 아니고 , 테스트 시에 변경된 블럭과 복제가 중단된 블록만 다시 Sync 하여 , 빠른 시간 안에 HA Standby 로 복귀가 가능

Rolling Patch작업

Shared Nothing Only

복제 구성 시 , OS 나 DB 같은 시스템 S/W 가 설치된 볼륨은 복제를 하지 않고 ,

데이터 영역만 복제 구성을 합니다 . OS, DB 등의 S/W 영역에만 변경이 일어나는 Patch 와 같은 작업 시 일부 절체 시간의 중단만으로 , Active 노드를 변경하면서 작업이 가능

2. SteelEye 소개 Shared Storage vs. Shared Nothing

Page 10: SteelEye 표준 제안서

2. SteelEye 소개 Scalable Availability

All configurations supported across both physical and virtual servers

Single Node Monitoring &

Recovery

Two Node LAN Failover Cluster with

Shared Storage

Two Node LAN Failover Cluster with

Data Replication

N-Node WAN Failover Cluster with Data Replication (DR)

Hybrid Shared Storage Cluster with WAN replication (DR)

Page 11: SteelEye 표준 제안서

SteelEye Protection SuiteSteelEye Protection Suite

ApplicationRecovery

Kits

ApplicationRecovery

KitsLifeKeeperLifeKeeper DataKeeperDataKeeper

LifeKeeper: Server 및 Application 의 장애 감지를 통한 자동 fail-over 를 담당하는 H/A Cluster 모듈 DataKeeper: Real-time, High performance 의 Data volume Replication 모듈로 LifeKeeper 와 연동 ARK: Application 의 장애 감지 및 fail-over 를 위한 Built-in 된 Knowledge 모듈로 LifeKeeper 와 연동

2. SteelEye 소개 Product 구성

Combining High Availability with efficient Data Replication to ensure Business Continuity for your Mission Critical Apps!

Page 12: SteelEye 표준 제안서

다양한x86 환경

지원

우수한복제 성능

다양한 Resource

지원

다양한 Enterprise Linux 배포판 지원다양한 가상화 , Cloud 환경 지원Shared Storage 외 Local, DAS Storage 지원각 스토리지 밴더의 multipath 드라이버 지원

LAN/WAN 환경에서의 Host-based ReplicationSync/Async/Periodic 모드 복제 지원Block 단위 Volumn/LUN 복제로 대용량 파일 처리에 적합Fail-over 시 자동 Source/Target 변경각각 다른 설정의 Multi-target 지원Dirty block 을 bitmap 으로 관리하여 full resync 방지복제 대역폭 제한 및 9 단계의 압축 전송 지원

30 여개의 주요한 Application 에 최적화된 knowledge module각 리소스 타입별 최적화된 기동 / 정지 , 상태 check 제공리소스 타입별로 2 level(quick/deep check) health check 제공

구성 및운영

편의성각 리소스 type 별 wizard 를 통한 리소스 등록 및 관리Java 기반 GUI 및 CLI 제공비즈니스 변화에 따른 노드 증설 , 변경 및 축소 용이함클러스터 상태 모니터링을 위한 SMTP/SNMP trap 지원

Shared Storage 및 Shared Nothing 환경 지원1:1, 1:N, N:1, DR, cross standby 구성 지원Virtual, Physical 간의 자유로운 이중화 구성 지원

다양한 구성

2. SteelEye 소개 Key feature

Page 13: SteelEye 표준 제안서

•Linux RHEL, SLES,

OEL, CentOS, Asianux

•Windows 2003,2008, 2012

•Citrix XenServer•MS Hyper-V•Red Hat KVM•OracleVM•Vmware ESX

•Shared Storage SAN, iSCSI, NAS

•Non-Shared Storage

Internal Disk, DAS, Fusion IO

Storage Type

Virtualizations

O/S

Supported Environment

2. SteelEye 소개 Support Environ-ment

Page 14: SteelEye 표준 제안서

ApplicationRecovery

Kits

•Apache•Samba•NFS•SW Raid(md)

•SAP•WebSphere MQ•Exchange•Any Custom App

•Oracle•MySQL•PostgreSQL•Sybase•DB2•MSSQL

•DMMP•NAS•EMC

PowerPath•Hitachi HDLM•IBM SDD•Data

Replication

Storage

ApplicationsServices

Databases

2. SteelEye 소개 Support ARK

Page 15: SteelEye 표준 제안서

2. SteelEye 소개

GUI 를 통한 리소스 등록 및 관리 가능

각 리소스 타입별 관리 메뉴 제공

각 리소스 타입별 설정 마법사 제공

각종 로그 조회 및 리소스 상태 관제 가능

GUI

Page 16: SteelEye 표준 제안서

3. SteelEye 구성 방안

Page 17: SteelEye 표준 제안서

Server

Data

Instance

Server

Data

Instance

Server

Data

Instance

Server

Instance

Replication

Active Stand byActive Stand by

3. SteelEye 구성 방안 기본 구성

모든 구성에서 Server 는 Physical, Virtual 모두 가능즉 , PP, PV, VP, VV 모두 가능

Shared Storage Shared Nothing

H/A H/A

Page 18: SteelEye 표준 제안서

Data2

Server

Active

Data1

Sync

Server

Active

Data2

Server

Data1

Instance2

Standby

Instance2

Instance1

Instance1

Sync Data2

Server

Active

Server

Active

ServerData1

Instance2

Standby

Instance2

Instance1

Instance1

Shared Nothing Shared Storage

3. SteelEye 구성 방안 N:1 구성

Page 19: SteelEye 표준 제안서

Server

Active/Standby

Data2

Sync

Data1

Instance2Instance1

Server

Data2Data1

Instance2Instance1

Sync

Active/Standby

Shared Nothing

Shared StorageServer

Active/Standby

Data2Data1

Instance2Instance1

Server

Instance2Instance1

Active/Standby

3. SteelEye 구성 방안 Crose Standby

Page 20: SteelEye 표준 제안서

Server

Data

Instance

Active

Server

Instance

Standby

DataSync

Server

Instance

DR

Data

Async

InstanceShared Nothing

Shared Storage

Server

Data

Instance

Active

Server

Instance

Standby

Server

Instance

DR

DataAsync

Instance

3. SteelEye 구성 방안 DR 구성

H/A

H/A H/A

H/A

Page 22: SteelEye 표준 제안서

5. 결론

SteelEye Protection Suite10 년이상 검증된 Architecture 의 Consistency

x86(Linux, Windows), 가상화 , Cloud 환경에 최적화

Open Source 를 포함한 다양한 Linux 배포 버전을 지원

다양한 Resource 들을 Script 작성 기반이 아닌 지능화된 Application 감시 모듈

다양한 환경 구성 (1:1, N:1, DR, cross standby, Shared Storage/Shared Nothing)

Block 기반 복제로 빠른 성능 및 DB 이외의 다양한 형태의 Replication 지원

설치 , 구성 , 운영 작업에 직관적인 Wizard 형태의 GUI 제공

HA Fail-over, Data Replication, DR 을 하나의 솔류션으로 구축

Business 요구사항 변경에 따른 유연한 확장 / 변경 가능

storage-based DR/Replication 보다 유연하고 저가의 구축 가능

Page 23: SteelEye 표준 제안서

별첨 1. SteelEye 아키텍처

Page 24: SteelEye 표준 제안서

LifeKeeperConfiguration

Database (LCD)

LifeKeeperCommunicationsManager (LCM)

RecoveryDirection / ActionResource Monitoring

Application Recovery Kit

LifeKeeper core

LifeKeeper GUI client

LifeKeeper Recovery Actionand Control Interface

(LRACI)

LifeKeeperAlarm Interface

LCD Interface(LCDI)

LifeKeeper Node

To LCM on another node

LifeKeeper GUI server

별첨 1. SteelEye 아키텍처 LifeKeeper 아키텍쳐

Page 25: SteelEye 표준 제안서

bitmap file

bitmap file

Active 의 디스크와 리모트의 디스크는nbd 와 software RAID 를 통해 복제

별첨 1. SteelEye 아키텍처 DataKeeper 아키텍쳐

Page 26: SteelEye 표준 제안서

1

2

34

5

Write I/O

bitmap file

bitmap file

6

Read I/O

1) Source 서버 Write 발생2) Source 서버의 Bitmap File Dirty

3) Target 서버의 Disk 에 Write 수행4) Source 서버의 Disk 에 Write 수행5) Source 서버의 Bitmap File clear

6) Write 완료

별첨 1. SteelEye 아키텍처 Replication Workflow(Sync)

Page 27: SteelEye 표준 제안서

2

34

5

bitmap file

bitmap file

6

1) Source 서버 Write 발생2) Source 서버에 Bitmap File Dirty

3) Target 서버에 Write 요청 전달4) Source 서버의 Disk 에 Write 수행5) Source 서버의 Bitmap File clear

6) Write 완료

Write I/ORead I/O

1

별첨 1. SteelEye 아키텍처 Replication Workflow(Async)

Page 28: SteelEye 표준 제안서

별첨 2. H/A 와 유사 솔류션의 비교

Page 29: SteelEye 표준 제안서

Server

Data

Instance

Server

Data

Instance

Data

1. CDC 2. Storage Replication

• CDC(Change Data Capture) 솔류션을 통해 Source 노드의 변경사항을 Target 에서 DML실행으로 동기화하는 방식

• Async 방식이고 , ( 일부 ) 데이터가 논리적으로 동일한거지 , 물리적으로 같은 DB 라고 보기 어려워 , 이중화로 활용 어렵다

• 부분 복제 , 집계성 복제를 통한 별도의 Read/Write 가능한 DB 로 활용에 유리

• EMC 의 BCV, Hitachi 의 SI 같은 Storage Replication 이용한 Storage 이중화 방식

• 복제성능이 빠르고 , 안정성이 검증되어 주로 백업부하 분산용과 복구용으로 유리

• 고가의 Enterprise Storage 와 해당 벤더의 고가의 복제솔류션 필요

• 자동 Fail-over 구성 안되고 , 일반적으로 특정 시점 기준으로 Sync 되도록 구성

Active

Server

Active

Instance

Backup / Test

Server

Instance

Active’

Data’ReplicationCDC

별첨 2. H/A 와 유사 솔류션의 비교

Page 30: SteelEye 표준 제안서

Server

Data

Instance

Server

Data

Instance

Server

Data

Instance

3. Oracle: RAC 4. Oracle: Active Data Guard

Server

Instance

• Storage 이중화가 안되어 있음• Active-Active 가 가능한 유일한 방법으로

고가의 Unix 의 Oracle 환경에서 유리• Fail-over 시간이 짧거나 무중단 서비스 가능• Oracle 만 가능

RAC

ADG

Active Read OnlyActive Active

• Oracle 복구 방식으로 Block level 동기화 방식• 속도 빠르고 Target 노드를 ReadOnly 로

읽기부하 분산 및 백업 부하 분산용으로 활용 가능

• Read Only ReadWrite 전환 포함한 Fail-over 자동화 구성 안됨

• Oracle 만 가능

별첨 2. H/A 와 유사 솔류션의 비교

Page 31: SteelEye 표준 제안서

Server

Data

Instance

Server

Data

Instance

Server

Data

Instance

5. H/A Solution - Server Only 6. H/A Soution - Server+Data

Server

Instance

• Server 나 Instance 장애 시 중단 후 자동 Fail-over 되어 서비스가 재개되는 구조

• 평상시에 Stand by 서버가 유휴이므로 , 상대적으로 저가인 Linux 나 가상화 환경에서 유리

• Storage 이중화가 안되어 있음• DB 이외의 모든 서비스에 활용 가능

H/A

Replication

Active Stand byActive Stand by

• Server, Instance, Storage 에 장애 시 중단 후 자동 Fail-over 되어 서비스가 재개되는 구조

• 평상시에 Stand by 서버가 유휴이므로 , 상대적으로 저가인 Linux 나 가상화 환경에서 유리

• DB 이외의 모든 서비스에 활용 가능

H/A

별첨 2. H/A 와 유사 솔류션의 비교

Page 32: SteelEye 표준 제안서

이중화 구성 방안

이중화 Component활용범위

Fail-over자동화

주 용도Server

In-stance

Data

CDC - - - DB Ⅹ

부분 복제 , 집계성 복제를 통한 타시스템 IF 나 읽기부하 분산용 및 별도의 Read/Write 가능한 DB 로 활용에 유리

Storage Replica-tion

- - - ALL Ⅹ백업부하 분산 및 빠른 복구를 위한 1 차 백업용으로 유리

Oracle: RAC O O ⅩOracl

eO

( 무중단 )RAC + ADG 로 구성시 고가의 Oracle 환경에서 장애복구 ,

읽기부하 분산 , 백업부하 분산용으로 유리Oracle: ADG △ △ O

Oracle

HA – Server Only O O Ⅹ ALLO

( 중단후 ) 상대적으로 저가인 Linux 및 가상화 환경에서 DB 를 포함한 여러 이중화 환경 구성에 유리HA –

Server+DataO O O ALL

O( 중단후 )

별첨 2. H/A 와 유사 솔류션의 비교

Page 33: SteelEye 표준 제안서

별첨 3. 데이터 복제 방식 비교

Page 34: SteelEye 표준 제안서

별첨 3. 데이터 복제 방식 비교CDC 방식 Log Apply 방식 File 단위 복제

Block 단위 Volumn/LUN 복제

설명

Active node 의 DML 을 Log 에서 추출하여 Target node 에서 SQL execution하는 방식

Active 노드에서 발생한 DB복구를 위한 Log 를 Target node 에서 Log apply(=recovery) 를 하는 방식

Active node 에서 변경된 파일을 Tar-get node 에 전송하는 방식

Active node 에서 변경된 Block 만을 Target node 로 전송하는 방식

적용가능범위

DB 에만 사용 가능 DB 에만 사용 가능Raw Device 를 제외한 모든 File 에 사용 가능

Raw Device 를 포함한 모든 데이터 복제에 사용 가능

솔류션•SharePlex•Oracle Golden Gate•MySQL Replica 등

• Oracle Active Data Guard – Physical mode

• Cubrid Replication

BCVDataKeeper 등

동기화방식

Async Async/Sync Async/SyncAsync/Sync

성능 느림 중간 중간 빠름

전송량 적음 보통 많음 적음

비교

• 성능이 느린 경우가 많다 .• 솔류션에 따라 읽기 정합성이

순간 불일치 난다 .• 데이터 불일치 상태를

모니터링 하기 어렵다 .• 동기화에 문제가 없으면

논리적으로 동일한 데이터이지만 , 물리적으로 동일하지 않다

• DB 벤더에서 제공하는 가장 안정적인 DB 복제 방식

• 복제 중간에 복제가 중단되면 , 이후에 복제를 따라가기 위해서는 중간의 모든 로그를 Apply 해야만 한다 . 복제 Target 을 읽기전용과 같은 용도로 사용 가능

• DB 처럼 I/O 의 단위가 파일단위로 Write 가 일어나지 않는 경우 적용이 어렵다 .

• 인프라적으로 가장 빠르고 안정적으로 복제를 하는 방식이다 .

• 물리적으로 동일하기 때문에 , Fail-over 나 DR 구축 용으로 가장 안정적인 복제 방식

Page 35: SteelEye 표준 제안서

별첨 4. vAppKeeper 소개

Page 36: SteelEye 표준 제안서

별첨 4. vAppKeeper 소개 VMWare HA 의 한계

• VMware HA strength lies in protection against hardware failures• 80% of unplanned outages are the result of application failures, mis-con-

figurations and other operational errors• Application awareness is essential to maximizing application availability

Page 37: SteelEye 표준 제안서

별첨 4. vAppKeeper 소개

• Cost-effective high availability solution for applications that do not require multi-node clustering– No standby resources (hardware, software, etc.) necessary– Less complex to deploy and manage than multi-node clus-

tering– Plugin allow management and monitoring through the

vSphere Client• Allows customer to fully leverage VMware tools and automa-

tion without compatibility issues

vAppKeeper Brings Application Awareness to your VMware HA

Page 38: SteelEye 표준 제안서

별첨 4. vAppKeeper 소개

vMotion HA DRS

vSphere Client w/ vAppKeeper Plug-in

VMware HA Application Monitoring API

Ap p

OS OS OS OS

SMC

vA K Ap p vA K Ap p vA K Ap p vA K

HTTP

Browser-Based vAppKeeper UI

Page 39: SteelEye 표준 제안서

별첨 4. vAppKeeper 소개

VMware HA

• Monitors physical host for failure

• Monitors virtual machine for failure

• Can monitor VMware Tools heartbeat to identify OS failure

vAppKeeper

• Monitors the health and applications (A) and their dependencies (D)

• Withholds heartbeat to instruct VMware HA to respond to an application failure (restart, VMotion)

Page 40: SteelEye 표준 제안서

별첨 4. vAppKeeper 소개

Visibility• vSphere Client dashboard and

granular application hierarchy views

Flexible Management Options• Brower-based user interface• Command-line interface• Multi-level policy• Temporal recovery logic

Page 41: SteelEye 표준 제안서

별첨 4. VMWare HA vs. vAppKeeper vs. SPS

구성방안

이중화 구성SPOF /감지불가

자원

이중화비용

비고VMWare HA vAppKeeper

LifeKeeper+ ARK

DataKeeper

구성 1 ○•Storage•Application•VM OS

0 • VM HA 만을 사용하는 경우 가상화 서버에 대한 HA 만을 지원

• 가상화 서버내에서 수행되는 Application 장애 감지를 위해서는 vAppKeeper 필요

구성 2 ○ ○•Storage•VM OS

5

구성 3 ○ •Storage 10 • VM HA 와 SPS 를 같이 사용하는 경우 SPS 가 기 구성된 Standby node 로 Fail-over 를 하게되면 , VM HA 는 장애난 Ac-

tive 노드를 자동으로 기동하여 ,

빠른 Fail-back 이 가능하게 된다 .• 즉 , SPS 를 사용하게 되더라도

VM HA 를 같이 사용하는게 이중화 측면에서는 유리하다

구성 4 ○ ○ •Storage 10

구성 5 ○ ○ - 20

구성 6 ○ ○ ○ - 20vAppKeeper 는 vSphere 환경의 Linux 버전만 지원

Page 42: SteelEye 표준 제안서

별첨 5. DR 정책 수립과 DR 고객 사례

Page 43: SteelEye 표준 제안서

DR 정책 수립 RPO & RTO

RPO(Recovery Point

Objective)

What is the point of data revovery?

RTO(Recovery Time Objective)

How much time does it take to restart?

1 Day1Week2Weeks 0

Normal Operation Stop ReStart

Disaster Time

??Days/Hours/Minuties

Page 44: SteelEye 표준 제안서

DR 정책 수립 Investment VS. RPO/RTO

Investment

RPO(Recovery Point Objective)

What is the point of data revovery?

RTO(Recovery Time Objective)How much time does it take to

restart?

Disaster

It requires more investment if PRO/PRT closer to the Disater.

Page 45: SteelEye 표준 제안서

The Investment V.S. DR Solution

RTO

Investment

Back Up

Replication

Cold Site

RPO

Warm Site

Hot Site

RPO’s cost depends on

How to protective system

HAClustering

RTO’s cost depends on

How to build back-up site

DR 정책 수립

SteelEye 는 Replication 을 포함한 HA Cluster 로 Hot Site 로 DR 을 구성

Page 46: SteelEye 표준 제안서

DR Case Study – Central Bank of Russia

• Customer’s payment system involves over

• 600 bank offices• 1100 commercial banks• 2400 side offices.

• Complicated daily account routines generate a tremendous flow of electronic payment documents

• over a billion electronic filings every year

• Ensuring data aggregation and integrity back to a central storage vault was mission critical

• Ensure availability of key Oracle databases and customer applications while avoiding the single points of failure of shared storage

• Minimize cost

Challenge:

Page 47: SteelEye 표준 제안서

DR Case Study – Central Bank of Russia

• SPS for Linux was implemented to ensure same and seamless failover of Oracle databases and Custom applications

• Twin clusters were built at primary/backup Data Centers with continuous data replication between nodes. LifeKeeper’s scalability allows the customer to grow to geographically disperse clusters with ease.

• The LifeKeeper cluster eliminates data loss due to any hardware or software faults and provides high availability for applications and processed data, even in the event of a total datacenter loss

• Customer was able to easily and quickly meet their goals with minimal expense

Solution

Results

“The SteelEye LifeKeeper solution allowed us to considerably improve availability of the payment data gathering system and to eliminate data loss by its replication while receiving data from remote data sources.“

-A. L. Danilov, Chief Engineer, Central Bank of Russia (ICI BR)

Page 48: SteelEye 표준 제안서

DR Case Study – U.S. Navy fleet

• Customer needed to ensure continuous availability of infrastructure services needed to support combat systems

• Solution needed to support commercially available hardware and software running on RedHat Linux

• Required a solution that supported multi-site cluster configurations to protect against hardware losses

• Required the ability to cascade application recovery across prioritized nodes

Challenge:

Page 49: SteelEye 표준 제안서

DR Case Study – U.S. Navy fleet

• SPS for Linux Multi-Site Cluster was implemented to ensure NFS services are high available to support mission critical systems.

• At each location the customer implemented a 3-node hybrid cluster:

• 2-nodes with iSCSI shared storage at primary data center (IBM Blades and DS3500 storage)

• Replicated 3rd node at backup data center

• The LifeKeeper multi-site cluster solution provides high availability for mission critical combat systems, even in the event of a total datacenter loss

• Less expensive and more flexible than storage-based replication solutions. Customer needed to re-use existing mixed hardware/storage.

Solution

Results

"As a leading alternative in reliable, flexible high availability clustering solutions for Linux, SPS for Linux Multi-Site Cluster Edition enables us to provide a disaster recovery infrastructure with the capability to support the critical weaponry of the U.S. Navy fleet."

-Craig Black, GTS program manager for the CPS project

Page 50: SteelEye 표준 제안서

RequestRequest

Replication for heavy data such as local map and the pictures of parking space

Protection for code/encryption files

Replication of Data ONLY

Easy to set up  

1. High C/P

2. Block-level replication & groupware support 3. Low cost

4. Easy UI

DataKeeperDataKeeper

Restart in short time 5. Replication

DR Case Study – Paraca Why DataKeeper?

Page 51: SteelEye 표준 제안서

DR Case Study – Paraca

DataKeeperDataKeeper Other ApplicationOther Application

Data Compression

1 2 3 4 5 6 7

About 3

For long distance replication, DataKeeper could

keep throughput by different compression ratio

1 2 3

9

8 9

Data Compression

Why DataKeeper?

Page 52: SteelEye 표준 제안서

DR Case Study – Paraca

DataKeeperDataKeeper Other ApplicationOther Application

For long distance replication, DataKeeper could

Copy data by block level

File levelBlock level

ReplicationReplication

Why DataKeeper?

Page 53: SteelEye 표준 제안서

DR Case Study – NewStar in England

WANWAN

12km460km

5,500km

Exchange

Exchange

Exchange

Exchange

WANWAN

Bermuda

Ireland London A

London B

Configuration

Page 54: SteelEye 표준 제안서

Case Study – K 사 구성도

6TB

2TB

20TB ECM Web

ECM DB

ECM Search

EMC VNX7500SAN Storage

6TB

2TB

20TB ECM Web

ECM DBECM Search

EMC VNX5300SAN Storage

KRASN130P

xxx 동 ( 전산실 )

xxx 동 (DR Center)

Replication

Replication

VIP:X.X.X.X

VIP:X.X.X.X

VIP:X.X.X.X

HP DL380G8• CPU: (2)2.50GHz

(12Core)• RAM: 72GB• Disk1:

300Gx2(R1)• Disk2:

300Gx2(R1)• Disk3: STORAGE• OS: Win2008R2

HP DL380G8• CPU: (2)2.50GHz

(12Core)• RAM: 72GB• Disk1:

300Gx2(R1)• Disk2:

300Gx2(R1)• Disk3: STORAGE• OS:

Win2008R2En• DB: SQL2012Std

HP DL380G8• CPU: (2)2.50GHz

(12Core)• RAM: 72GB• Disk1:

300Gx2(R1)• Disk2:

300Gx2(R1)• Disk3: STORAGE• OS:

Win2008R2En• DB: SQL2012Std

ECM WEB

ECM DB

ECM 검색

섬 네일

PDF 변환

ECM WEB

ECM DB

ECM 검색

ECM 개발

Virtual MachineCPU : 2CoreRAM: 10GBOS: Win2008R2

HP DL380G8• CPU: (2)2.50GHz

(12Core)• RAM: 72GB• Disk1:

300Gx4(R5)• Disk2: STORAGE• OS: Win2012

이중화 제외 서비스

Virtual MachineCPU : 2CoreRAM: 10GBOS: Win2008R2

Virtual MachineCPU : 2CoreRAM: 10GBOS: Win2008R2

Virtualization Host Server

Virtual MachineCPU : 2CoreRAM: 10GBOS: Win2008R2

Active Standby

개발사 제품명 용도SIOS SteelEye Service 와 Data 를 이중화 및 복제 솔루션

Microsoft Hyper - V 윈도우 서버 가상화 솔루션으로 물리머신에 여러 대의가상 서버를 올려 주는 제품

구분

총 가용량(RAW)

사용량(TB)

잔여공간

NL-SAS

88 TB 67 TB 13 TB

SAS

20 TB 14 TB 5.9 TB

구분

총 가용량(RAW)

사용량(TB)

잔여공간

SAS

36 TB 28TB 8TB

Page 55: SteelEye 표준 제안서

Server

Data

Instance

Active

Server

Instance

Standby

DataSync

Server

Instance

DR

Data

Async

InstanceShared Nothing

Shared Storage

Server

Data

Instance

Active

Server

Instance

Standby

Server

Instance

DR

DataAsync

Instance

SteelEye 구성 방안 DR 구성

H/A

H/A H/A

H/A

Page 56: SteelEye 표준 제안서

별첨 6. Heartbeat 구성과 IO Fencing

Page 57: SteelEye 표준 제안서

HeartBeat3(선택 )

SteelEye RHCS

Heartbeat Line 복수 개 설정가능(Service N/W, iSCSI망 구성 가능 )

기본 Heartbeat Line 1 개HeartBeat N/W 장애 시 Service망을 사용

TTY(Serial cable) heartbeat 도 구성 가능 지원 안 함

Unicast 방식의 heartbeat Multicast 방식의 Heartbeat

HeartBeat 구성 Split-brain 예방

Data

Server Server

Service N/W

HeartBeat N/W

iSCSI N/W

SerialCable

• 별도의 N/W 대역에 복수개의 HeartBeat구성을 권장

• Service N/W 에 HeartBeat 이중화 구성 권고 Service 가 정상적인 상황에서의 Split-brain 상황 방지

• 물리적으로 Serial Cabling 이 가능한경우 TTY HeartBeat 추가 구성 권장 HeartBeat process 이중화 이득

• iSCSI Storage 사용시 HeartBeat 추가 구성 권장 Disk Heartbeat 과 동일 효과

HeartBeat4 (선택 )

HeartBeat1 ( 필수 )

HeartBeat2 ( 필수 )

Page 58: SteelEye 표준 제안서

I/O Fencing I/O Fencing

I/O Fencing 필요성

SCSI Conflict 를 인지한 Active Node 를 Reboot 으로 I/O Fencing

SCSI PR3 ( 기본 제공 )

Quorum Witness Server (옵션 ) STONITH (옵션 )

제 3 의 Witness Server 에서 Active status 확인을 통해 불필요한 Fail-over 방지

SCSI Conflict 를 인지한 Active Node 의 전원 Off 수행 SCSI Conflict 감지로 인한 reboot 수행을 위한 추가 방안

Shared Storage 환경에서 필요

Page 59: SteelEye 표준 제안서

I/O Fencing Fencing Chart

Configuration

Split-brain

Hung Server

SCSIReserva-

tion(Default)

Quo-rumWit-ness

Server

Watch-dog

STONITH

● ●

● ●

● ● ●

● ●

Most Reliable Least Reliable

Page 60: SteelEye 표준 제안서

SteelEye for DR Conclusion

SteelEye Protection Suite10 년이상 검증된 Architecture 의 Consistency

x86(Linux, Windows), 가상화 , Cloud 환경에 최적화

Open Source 를 포함한 다양한 Linux 배포 버전을 지원

다양한 Resource 들을 Script 작성 기반이 아닌 지능화된 Application 감시 모듈

다양한 환경 구성 (1:1, N:1, DR, cross standby, Shared Storage/Shared Nothing)

Block 기반 복제로 빠른 성능 및 DB 이외의 다양한 형태의 Replication 지원

설치 , 구성 , 운영 작업에 직관적인 Wizard 형태의 GUI 제공

HA Fail-over, Data Replication, DR 을 하나의 솔류션으로 구축

Business 요구사항 변경에 따른 유연한 확장 / 변경 가능

storage-based DR/Replication 보다 유연하고 저가의 구축 가능