Special Report 24호

The Evolving Data Center
'통합 바람' 타고 데이터 센터 계속 진화
비용·운영·자원 관리 최적화 신기술 속속 등장
기업은 운영 예산을 조절하고 사업 방향을 강화시키기 위해 사업 목표를 개선해 나간다. 데이터 센터에서 고도의 기술도 마찬가지이다. 고도의 기술을 채택하면 기업 데이터 센터가 신속하게 진화할 수 있기 때문이다.

본 기사는 차세대 데이터 센터에 영향을 미치는 데이터 센터 네트워크 아키텍처 및 아키텍처 변화로 인한 새로운 트렌드와 그 효과를 다루고 있다.

운영 예산을 조정하려는 필요성은 서버, 애플리케이션, 스토리지, 심지어 데이터 센터 같은 다양한 기술 영역의 통합에서 생겨난다. 보다 높은 복원력을 얻는데서 나타난 또 다른 트렌드는 애플리케이션과 분산 환경에서 데이터 보안, 비즈니스 연속성, 서버 클러스터를 변화시킨다. 예를 들어, 인수합병은 다변화된 시장에서 급격한 성장을 이루는데 도움이 되며, 액세스, 인증, 라우팅, 보안 정책을 컨트롤하면서 애플리케이션 공유와 네트워크 통합의 필요성을 부각시킨다. 네트워크 분할과 가상화 기술을 통해 통합도 간편해졌다. 성장과 확장을 통해 생겨나는 트렌드는 네트워크 및 컴퓨팅 성장뿐만 아니라, 전력이나 쿨링(cooling), 케이블링, 에어플로우 같은 환경적 이슈들의 기능을 계획하는데도 필요하다.

말할 나위 없이 통합은 오늘날 전 세계적으로 데이터 센터에 영향력을 발휘하는 가장 보편적인 트렌드다. 주요 사업 추진력에는 비용 컨트롤, 운영 효율성, 효과적인 자원 이용이 포함된다. <그림 1>에서는 데이터 센터의 기술 통합이 잘 묘사되고 있다.

데이터 센터 통합
데이터 센터 통합은 분산된 서버 팜(server farm)이 줄어들고, 기존 및 새로운 시설에 서버가 재배치된다는 사실을 의미한다. 이러한 통합 데이터 센터는 서로 연결돼 있으며 운영, 지원, 디자인 최우수 사례가 표준으로 지정돼 있다. <그림 1>에 나와 있듯이 통합 목표로는 보다 적은 장소 관리, (서버 및 애플리케이션 등의) 컴퓨팅 인프라의 중앙 집중화, 기존 데이터 센터 설비 상의 '노하우'를 사용하는 것이 포함된다. 네트워킹 관점에서 보면 통합 환경은 더 많은 서버와 애플리케이션을 수용한다. 이어 더 높은 포트 밀도와 네트워크 기반 서비스의 사용 증가, 증가된 노출 빈도와 잘 맞는 향상된 고가용성을 요구한다. 이러한 변화는 오버서브스크립션(oversubscription) 비율, 포괄적인 쓰루풋, 확장성(scalability), 고가용성 용도에 영향을 준다.

그림 1. 데이터 센터 자원 통합은 분산 서버 펌이 줄어들고, 기존이나 새로운 시설로 서버를 재배치하면서 생겨난다.


맨위로


서버 통합
서버 통합은 서버 하드웨어 플랫폼과 애플리케이션 환경에서 지원되는 운영시스템 및 표준화가 줄어드는 것을 의미한다. 지원 서버 하드웨어 플랫폼의 감소로 인해 복원에 보다 효율적이며, 예비 부품 재고 문제를 완화시킬 뿐 아니라 전문 인력 문제나 지속적인 실행의 복잡함을 덜어준다. 서버 하드웨어의 표준화에는 (PCI, PCI-X, PCI 익스프레스 중에 선택하는 문제와 서버 연결을 위해 10/100, 10/100/1000, 10기가비트 이더넷을 선택하는 문제처럼) 버스/NIC 기술을 선택하는 것과 단일호밍(singlehoming) 혹은 멀티호밍(multihoming)을 선택하는 문제도 포함된다. 네트워킹의 고려사항으로는 서버와 액세스 계층 간, 액세스와 통합 계층 간, 통합과 코어 계층 간의 오버서브스크립션 비율이나 멀티호밍에 필요한 포트 밀도, 네트워크 카드 티밍(teaming)을 발견하는 것 등이 있다. 오버서브스크립션 비율은 PCI-익스프레스, 기가비트 이더넷을 사용해 충분히 변화될 수 있다. 평균 발생 비율이 증가하면서 듀얼 호밍도 서로 다른 액세스 스위치 간의 레이어 2 인접성(adjacency) 및 두 배의 포트를 필요로 하기 때문이다.

블레이드-서버통합
블레이드-서버 기술은 케이블링을 줄이면서 보다 높은 컴퓨팅 메모리와 랙(rack)당 I/O 기능을 제공한다. 블레이드-서버 통합의 네트워크 관련 관점에는 I/O 및 네트워크 패브릭을 선택하는 문제가 포함된다. I/O 선택안으로는 패스쓰루(pass-through) 기술과 통합 네트워크 패브릭이 있다. 패스쓰루 기술이 서버와 네트워크를 직접 연결시켜주는 반면, 통합 네트워크 패브릭은 서버가 연결된 섀시 내부에 들어있는 중복 스위치다. 패스쓰루 환경에서, 서버는 외부 케이블 커넥터를 필요로 한다. 통합 네트워크 패브릭을 사용 시 선택할 수 있는 것은 이더넷, 파이버 채널, 인피니밴드가 있으며, 각 서버는 스위치가 있는 슬롯에 미리 연결돼 있다. 통합 스위치는 기존 데이터 센터 인프라와 연결돼 있는 몇 가지 업링크를 제공한다.

스토리지 통합
스토리지 통합은 중앙집중화를 통해 스토리지 용량 관리가 간편해질 뿐 아니라, 스토리지 용량 사용도 향상된다. DASD(Direct Attached Storage Disks)에서 스토리지 배열로 변경되면, 중앙집중된 스토리지 배열에서 스토리지 사용이 훨씬 효율적이고 편해진다. 높은 파이버 채널 포트 밀도와 (가상 SAN을 통한) 로컬 SAN(Storage Area Network) 분리를 지원하는 현재 SAN 패브릭 기술로 인해, 서로 다른 스토리지 패브릭이 감소되면서 스토리지에 좀 더 집중할 수 있으며, 분리된 스토리지 섬(storage island)을 통합할 수 있다. 네트워킹 통합으로는 에지 계층과 코어 계층에 있는 보다 높은 파이버 채널 포트 밀도가 있다. 이는 서버 연결용과 스토리지 배열, 테이프 서브 시스템 연결용으로 나뉜다. 추가 고려사항으로는 오버서브스크립션 비율 수준을 적절히 유지시키는 성능과 높은 리던던시(redundancy)가 있다.

멀티 계층 애플리케이션 통합
멀티 계층 애플리케이션 통합은 프리젠테이션(웹), 애플리케이션(미들웨어), 데이터베이스 기능들이 소프트웨어와 뚜렷하게 분리되면서, 각기 다른 서버 상에서 물리적으로 있는 웹 기반 애플리케이션으로 변경되는 것이다. 애플리케이션 통합으로는 웹 서비스 사용, 미들웨어 환경의 표준화, SOA(Service Oriented Architecture) 지원이 있다. 네트워크 기반 서비스들은 메시지를 확장시키고 보호하고 조종하기 위한 방법을 제공하며, 네트워크 파일 시스템을 처리할 뿐만 아니라 정적이고 동적인 컨텐츠의 캐싱을 실행시켜준다. 이러한 네트워크 기반 기능들은 계층별, 애플리케이션별, 멀티 계층 애플리케이션 그룹별로 물리적 애플리케이션이나 논리적 애플리케이션에 적응할 수 있다. 네트워크 기반 서비스가 적용되는 곳의 유연성은 기초 하드웨어가 논리적 상황을 독립적으로 사용할 수 있는 곳인 가상화 기능에서 발생한다.

데이터와 애플리케이션 보안
데이터와 애플리케이션 보안은 기업 네트워크뿐만 아니라 데이터 센터에서도 컨트롤된다. 데이터 센터 보안은 서버 팜에서 유지되는 통합과 기밀성, 정보 접근권을 처리하며 서버와 애플리케이션, 스토리지, 이들을 지원하는 네트워크 인프라에 가해지는 공격의 효력을 완화시켜주는 역할을 한다.

맨위로

서버와 애플리케이션 보안
서버와 애플리케이션 보안으로는 서버 팜 애플리케이션 계층 분할, DoS 및 DDoS 보안, 침입/감지 보안, 웜 방지 보안이 있다. 요구 사항을 처리하기 위해 네트워크 기반 서비스는 서버 상에서 실행되는 에이전트를 사용해, 트래픽을 모니터하고 분석하는 애플리케이션 환경과 서비스 디바이스를 보호한다. 여기에는 오탐지율(false positives)을 감소시키기 위해 복합 디바이스로부터 나온 정보와 상호 비교하는 것도 포함된다. 네트워크 기반 서비스는 침입 감지/보안 디바이스, DoS 보안 디바이스, 방화벽, 트래픽 분석, 상관 엔진(correlation engine)에 적용된다.

데이터 보안
데이터 보안은 스토리지 배열에서 정보를 보호하는 것과 관련 있다. 즉, 데이터가 IP나 SAN 클라우드(cloud)로 연결되는지, 혹은 서버 자체(DASD)에서 유지되는지에 관한 문제다. 두 가지 주요 목적은 정보 도난과 불법 액세스를 방지하면서 데이터 보전을 유지하는 것이다. 데이터가 (NAS 헤드나 DASD 같은) IP 네트워크에서 유지될 때는, 서버 및 애플리케이션 보안에서 사용되는 것과 동일한 보안 메커니즘이 적용된다. 정보가 SAN에 연결된 스토리지 배열로 유지되면, 보안 메커니즘은 네트워크 인프라에 의해 조닝(zoning) 방식과 디바이스 인증, 포트 기반 보안 형식으로 제공된다. 데이터 복제나 원격 백업, 보안 측정처럼, 데이터가 SAN에서 유지되지만 (FCIP 내지는 iSCSI 등의) IP를 통해 이동되는 암호화 및 VPN 경우 이동 중에 데이터를 분할하고 암호화하는 기능을 적용할 수 있다.

인프라 보안
인프라 보안은 트래픽을 서버 팜으로부터 지원하는 네트워크 디바이스와 링크를 보호하는 기능이다. 네트워크 디바이스 보호에는 컨트롤 플레인의 포화를 방지하는 라우터 인증, 레이트 리미터(rate limiter), 링크 포화상태를 막기 위해 원치 않는 트래픽이 필터링되는 DoS/DDoS 보호 디바이스 같은 기본 메커니즘이 포함된다. 네트워크 인프라는 컨트롤 플레인 폴리싱(Control Plane Policing), 특정 용도의 레이트 리미터, 라우터 인증, 포트 보안, 사설 VLAN 등 엔드포인트 보안 문제를 다루는 기능처럼 다양한 기능을 통해 강화된다.

가상화와 분할은 WAN, 캠퍼스, 지사, 인터넷 에지 같은 데이터 센터 환경과 기타 네트워크 장소에 영향을 준다. 가상화와 분할은 네트워크 디바이스와 데이터 같은 자원의 컨트롤이 유저 역할이나 기능에 기반 해 이뤄지는 환경에서 필요한 기능을 제공한다. 유저 액세스는 액세스 포인트에서 제어되고, 네트워크 전역에서 실시된다. 네트워크 디바이스가 제공하는 기능은 단일 물리 요소에서 나온 (가상) 논리적 단계가 필요하며, 이를 통해 다양한 애플리케이션 환경이나 다른 유저 그룹이 동시에 사용할 수 있다. 데이터 액세스는 애플리케이션 환경의 특정 제한 사항에 따라 제어되며, 네트워크 요소들 단계 별로 실시된다. <그림 2>에서는 가상 방화벽, 가상 로드 밸런서 등이 애플리케이션 액세스를 제어하고 가상 서버에서 차례로 작동되는 곳에서, 유저 트래픽이 격리된 경로를 거쳐 서버 팜으로 전송되는 과정을 묘사했다. 다양한 애플리케이션 환경은 서비스의 논리적인 단계를 통해 적용되는 방화벽과 로드 밸런서 상의 VLAN, VSAN, 정책을 사용해 분할된다.


맨위로

포괄적 가상화
가상화 기술은 서버와 애플리케이션 환경과 적합한 기능에 포괄적으로 적용된다. 그 적용 범위는 방화벽, 로드 밸런서 같은 네트워크 기반 서비스나 라우터, 스위치 같은 인프라 구성 요소에까지 이른다. 서버 및 애플리케이션 가상화란 운영되는 하드웨어 플랫폼과는 다소 독립적인 방식으로 이런 자원들의 논리적 인스턴스(logical instance)를 사용하는 것을 의미한다. (운영 시스템과 애플리케이션 소프트웨어 같은) 애플리케이션 서비스는 필요할 때 언제든 사용할 수 있는 서버로 쉽게 변경 가능한 서버의 실질적인 물리적 인스턴스(physical instance)다. 이는 애플리케이션 서비스의 기존 이미지를 요구하고, 논리적 인스턴스를 쉽게 조정할 수 있는 I/O 기능과 서버 플랫폼의 분리를 요구할 수 있다.

서버 가상화 기술에는 두 가지 주요한 유형이 있다. 그 중 하나가 단일 물리 서버(single physical server)로, 이는 각각 자체 운영 시스템과 애플리케이션 환경을 실행시키고 있는 다양한 논리적 개체들이나 가상화 서버로 나뉜다. 두 번째가 복합 서버(multiple servers)로, 이는 단일 운영 시스템을 가진 단일 서버로 나타나기 위해 논리적으로 분류된다. 단일 운영 시스템에서 CPU 기능은 서버를 추가하거나 제거하는데 따라 증가 또는 감소될 수 있다. 이는 복합적인 소프트웨어 및 하드웨어 환경 설정 관리를 단순화시켜준다.

MAURICIO ARREGOCES,
모리시오 아레고세스(MAURICIO ARREGOCES)는 시스코 네트워크 디자인과 아키텍처 부문 엔지니어링 그룹 이사다. 컴퓨터 공학 석사 학위 소지자로 데이터 센터 네트워킹에 관한 전문가이다. 그의 이메일 주소는 marregoc@cisco.com이다.

논리적 분할
분할이란 유저 그룹과 유저 액세스를 논리적으로 분리해, 동등하게 분할된 애플리케이션 환경을 조성할 수 있는 기술이 포함된 네트워크의 전반적인 트렌드다. 분할된 환경을 디자인할 때 고려되는 세 가지가 사용자 접근 제한, 보안 전송 기술, 분할된 애플리케이션 환경이다. 사용자 접근 제한은 액세스 포인트에서 맨 처음 실시된다. 일반적으로 사무실 지점이나 캠퍼스, 인터넷 에지가 여기 속한다. 이러한 액세스 포인트에서 사용자들은 인증되고 허가를 받는다. 그리고 일단 허락이 떨어지면, 관련 정책의 컨트롤을 받으며 소속 집단 별로 놓인다. 네트워크 상에서 사용자가 애플리케이션 환경에 접속하는 것은 논리적으로 격리된 경로를 제공한다, 이에 분할된 환경이 나타나는 것이다. 분할된 논리 경로는 트래픽 수신지 부근에서 종결되는 공유 인프라에서 고객 트래픽용 보안 매체를 제공한다. 트래픽이 서버 팜으로 향해 갈 때, 액세스 컨트롤은 데이터 센터 엔트리 포인트에서 실행된다.

분할 기술은 기업 측이 네트워크를 서로 합치면서 물리적 데이터 센터 공간을 공유해, 고객과 애플리케이션 간에 네트워크를 전송하는 때인 인수 합병 시에 유용하다.

분할 서비스를 제공하는 네트워크는 전체 네트워크에서 사용되는 몇 가지 기술을 필요로 하며, 이중 몇 개는 가상화 기능에 의존하고 있다. 액세스 포인트에서 실행 메커니즘은 유저 액세스, 그룹별 할당, 그룹 정책을 컨트롤하기 위해 IEEE 802.1x와 AAA(authentication, authorization, and accounting)를 사용한다. 고객 트래픽 전송은 공유 인프라의 수많은 분리된 경로를 이용해 안전하게 전송하기 위해 GRE(Generic Routing Encapsulation)나 L2TPv3(Layer 2 Tunneling Protocol Version 3) 터널, MPLS VPNs(Multiprotocol Label Switching virtual private networks), VPN 라우팅/포워딩 라이트 같은 기술을 사용한다. 데이터 센터에서 전송 경로를 애플리케이션 환경 전송에 맵핑하려면, 가상 라우터와 가상 방화벽 외에 미리 정해진 가상 서비스가 사용된다.

그림 2. 가상화 & 분할과 함께 단일 물리적 인프라 상에서 복합 토폴로지를 만들 수 있으므로 네트워크와 서버 자원들의 사용이 최적화된다.

비즈니스 연속성
비즈니스 연속성 계획은 운영의 실패를 막으려는 필요에서 탄생했다. 전 세계 많은 국가에서 비즈니스 연속성은 경제적 불안을 막는 차원에서, 다양한 산업들에 대한 정부 통제를 변화시켜왔다. 최상의 가용성을 얻으려면, 주요 데이터 센터 시설들과 분산 데이터 센터 환경에서 리던던시가 필요하다. 네트워크 디자인은 복원력 강한 주요 데이터 센터와 복합 데이터 센터 이용을 염두에 둬야 한다. 이어 주요 데이터, 동기 복제를 위한 근접선상에서 백업, 비동기 복제를 위한 원격, 액티브-액티브e 모드에서 복합 데이터 센터도 고려해야 한다. 비즈니스 연속성의 전통적인 영역은 분산 데이터 센터 간의 SAN 확장과 데이터 복제였다. 추가 기능으로는 '사이트 선택 (site selection)'으로 알려진 사용자에 가장 가까운 애플리케이션 인스턴스 선택 기능과 스토리지-투-스토리지, 클라이언트-투-서버, 서버-투-서버 트래픽을 지원하는 전송 기술 선택 기능이 있다. 서버-투-서버 환경에서 전송은 확장 클러스터(stretched cluster)로 알려진 서버 클러스터 간 레이어 2 인접성을 지원하는 것도 포함한다.

맨위로

물리적 데이터 센터 환경
물리적 환경의 변화는 데이터 센터, 서버, 애플리케이션, 스토리지 통합, 비즈니스 연속성을 제공하려는 필요성과 고성능, 보다 나은 응답속도, 고 확장성 같은 애플리케이션 환경의 자연적인 진화에서 나온 산물이다. 주요한 환경적 이슈로는 전력, 쿨링, 케이블링, 플로어 앤 랙(floor and rack) 공간을 들 수 있다. 랙과 관련 전원, 쿨링, 케이블링 조건별 새로운 서버 밀도를 기준으로 해서 원래 디자인 계획을 세심하게 고려해볼 필요가 있다. 데이터 센터 기획에는 쿨링 유닛과 전원 유닛, 랙 유닛 당 컴퓨팅 기능, 랙당 필요한 숫자나 포트에 따른 랙 스페이스를 자세히 묘사하는 것도 포함된다.

새로운 데이터 센터 아키텍처
최근 이러한 트렌드는 많은 도전 과제를 의미하고 있기에, 기술 채택이 쉬워지는 확고한 데이터 센터 네트워크 아키텍처를 개발할 필요가 있다. 기본 네트워크 인프라 (네트워크 패브릭) 선택, 데이터 센터 서비스 결정, 분산 환경 목표 확인과 같은 다음 조건들은 데이터 센터 아키텍처 개발에 중요하다.

데이터 센터 패브릭
데이터 센터 패브릭은 서버 팜<그림 3 참조>을 지원하는 종합적인 스위칭 인프라다. 스위칭 인프라는 데이터 센터 디바이스 간의 커뮤니케이션을 보다 효율적으로 교환하는데 필요한 주요 기능들을 제공한다. 커뮤니케이션 교환은 클라이언트-투-서버, 서버-투-서버, 서버-투-스토리지 , 스토리지-투-스토리지 같은 네 가지 유형 중 하나에 해당된다. 클라이언트-투-서버 트래픽은 유저와 애플리케이션 소통이 이뤄지는 트랜잭션 애플리케이션에 속한다. 서버-투-서버 트래픽의 경우, (상태 정보를 교환하는 애플리케이션 서버, 데이터베이스 서버 및 정보를 교환하는 애플리케이션 서버, 다른 데이터베이스에게 질의(querying)하는 데이터베이스 서버 같은) 클라이언트-투-서버 대화의 간접적인 결과나 (컴퓨터 분석처럼) 굉장히 작게 세분화된 단일 과제에 속하는 정보를 교환할 서버가 필요하다. 서버-투-스토리지 트래픽은 스토리지 배열에서 타겟 디스크에 액세스하거나, 전통적 블록 액세스 상에서 테이프 서브시스템으로 액세스하는 호스트로 구성돼 있다. 스토리지-투-스토리지의 경우, 교환은 데이터 복제 시나리오에서 일반적으로 동기 및 비동기 통신용 프로토콜을 사용하는 스토리지 배열 간에 이뤄진다.

연결 가능한 옵션으로는 이더넷과 파이버 채널이 있으며, 신생 기술로는 인피니밴드가 있다. 이더넷은 저렴한 비용으로 높은 성능을 지원함으로써 진화를 계속하고 있으며, 클라이언트-투-서버 애플리케이션에게 양질의 패브릭을 제공한다. 파이버 채널은 서버-투-스토리지 및 스토리지-투-스토리지 커뮤니케이션 교환을 지원하기 때문에 SAN용 커넥티비티 패브릭으로 남아있다.

인피니밴드는 높은 쓰루풋, 낮은 대기시간, 저렴한 비용과 서버 클러스터 환경에서 중요한 기능을 지원하면서 생겨났다. 패브릭 유형들은 제각각 분명한 커넥티비티 대안을 제시하며, 다양한 트래픽 유형과 특정 조건들이 지원되는 서비스를 제공한다.

데이터 센터 서비스
이더넷 패브릭 서비스는 주로 클라이언트-투-서버 트래픽과 트랜잭션 애플리케이션 서버-투-서버 트래픽에 적합하다. 이러한 서비스에는 보안, 애플리케이션 최적화 및 네트워크 관리가 포함된다. 보안 서비스로는 ARP 검사, PVLAN 등의 기본 네트워크 기반 서비스뿐만 아니라, 방화벽, 침입 감지, IPSec, SSL VPN, DoS 및 DDoS 완화가 포함된다. 애플리케이션 최적화 서비스로는 서버 로드 밸런싱, SSL 오프로딩, 두 가지 새로운 서비스 타입인 파일 캐싱과 메시지 조작이 있다. 파일 캐싱 서비스는 통합에 앞서 사용자가 경험한 것과 유사한 성능을 데이터 센터에서 유지시키는 동안 파일 집중화를 허용하게 되고, 이는 서버 통합 시 사용된다. 메시지 조작 서비스는 다양한 애플리케이션 간의 인포메이션 교환에 적합하며, 기업용 애플리케이션 통합을 단순화시키는데 주력한다. 네트워크 관리 서비스로는 일반적으로 네트워크 요소들과 프로비저닝 기능 관리가 있지만, 최근 트렌드는 네트워크와 서비스뿐만 아니라 (서버와 애플리케이션 같은) 컴퓨팅 자원들을 포함한, 가상 서비스의 엔드-투-엔드 프로비저닝에 초점을 맞추고 있다. 추가 네트워크 관리 기능은 보안 분석과 성능 계획, 애플리케이션 최적화에 필요한 상관관계 정보를 만들기 위해 모니터링 기능을 사용한다.

스토리지 네트워크 패브릭은 가상화 서비스도 제공하고 있다. 동일한 패브릭이 이용되는 VSAN에서 개별 SAN 아일랜드, 복합 스토리지 디바이스를 단일 디바이스로 여기게끔 만드는 스토리지 가상화가 여기 포함된다. 데이터 복제에 초점을 맞춘 추가 서비스는 SAN 디바이스가 각기 다른 SAN 디바이스와 소통할 수 있도록 해주는 분산 스토리지 배열과 패브릭 라우팅 서비스 간의 복제 과정을 증진시켜준다. 이더넷 및 IP 클라우드와 커뮤니케이션하는 것도 필요하기 때문에 SAN 패브릭은 iSCSI와 FCIP를 지원하는 게이트웨이 서비스도 제공하고 있다.

인피니밴드 네트워크 패브릭은 서버 클러스터 운영에 적합한 다양한 서비스를 제공한다. 인피니밴드 패브릭을 통해 속도는 빨라지고, 지연시간이 줄어들며, 오버서브스크립션 서버 클러스터도 개선된다. 인피니밴드의 또 다른 장점으로는 RDMA(Remote Direct Memory Access)를 통한 최적화된 IPC(interprocess communication), LAN 혹은 SAN으로의 액세스를 들 수 있다. 인피니밴드 패브릭은 OS, 애플리케이션, 스토리지를 결합시킴으로써 (부트 서비스를 통한) 디스크 없는 서버를 고르게 공급하는 동시에 서버 가상화 서비스도 제공하고 있다.

그림 3. 스위칭 패브릭은 (이더넷, 파이버 채널, 인피니밴드 같은) 물리적 매체와 클라이언트-투 서버, 서버-투-서버, 서버-투-스토리지, 스토리지-투-스토리지 커넥티비티를 제공한다.

분산 환경들
분산 데이터 센터 환경은 단일 사이트를 능가하는 고가용성을 얻을 수 있다. 액티브-액티브 시나리오에서 데이터 센터 간 커넥티비티는 중요하며, 이 때 레이어 2 인접 클러스터가 필요하다는 사실도 고려해야 한다.

분산 데이터 센터를 위한 디자인 조건으로는 이들 중 몇 개가, 혹은 어떤 것이 특정 애플리케이션의 액티브 인스턴스(active instance)를 포함하는가의 문제와 이들 간의 전송 옵션, 전송 네트워크를 공유하는 트래픽 유형이 있다. 이 외에도 사이트 선택의 요구사항 즉, IP 전송 인프라가 데이터 복제 트래픽과 인터넷 액세스 포인트의 수량 및 로케이션에 관여하는가의 문제가 포함된다.




추가자료
 
■ 시스코 데이터 센터 디자인 최적 사례
    cisco.com/go/datacenter
■ 데이터 센터에 관한 시스코 단행본
데이터 센터 원리들, 모리시오 아레고세스와
모리지오 포르토라니 집필
(시스코 프레스 - ISBN : 1587050234)




맨위로



Cisco에 문의하세요



Packet 지난 호 보기