SIOS SANless clusters

SIOS SANless clusters High-availability Machine Learning monitoring

  • Home
  • 제작품
    • SIOS DataKeeper for Windows
    • SIOS Protection Suite for Linux
  • 뉴스 및 이벤트
  • 서버 클러스터 단순화
  • 성공 사례
  • 저희에 게 연락
  • English
  • 中文 (中国)
  • 中文 (台灣)
  • 한국어
  • Bahasa Indonesia
  • ไทย

Archives for 12월 2018

Linux 소프트웨어 iSCSI 대상으로 저비용 SAN을 설정하는 방법

12월 12, 2018 by Jason Aw Leave a Comment

Linux 소프트웨어 iSCSI 대상으로 저비용 SAN 설정

Linux 소프트웨어 iSCSI 대상으로 저가 SAN을 설정하는 단계별 가이드

값 비싼 SAN 하드웨어를 구입하기에 충분한 반죽이 없을 때 소프트웨어 iSCSI 대상은 공유 스토리지를 설정하는 좋은 방법입니다. iSCSI 대상은 기존 하드웨어 (또는 심지어 VM!)에서 실행되는 소프트웨어 조각을 제외하고는 실제 하드웨어 iSCSI 배열과 동일하게 작동합니다. iSCSI 대상을 설정하면 필요한 공유 저장 장치를 쉽고 저렴한 비용으로 얻을 수 있습니다. GFS 나 OCFS 같은 클러스터 파일 시스템 인 Microsoft Windows Server Failover Clustering (WSFC)과 같은 클러스터링 제품을 사용하고 있다면 상관 없습니다. 또는 스토리지 풀링 및 라이브 마이그레이션을 활성화하여 가상화 플랫폼 (VMware, XenServer 또는 Hyper-V)을 최대한 활용하고자하는 경우에도 마찬가지입니다.

Lio-Target 정보

최근 Linux 커널은 Linux 용 표준 iSCSI 대상으로 LIO-Target을 채택했습니다. LIO-Target은 Linux 커널 3.1 이상에서 사용할 수 있습니다. LIO-Target은 Windows Server 장애 조치 클러스터링, VMware vSphere 및 기타 클러스터링 제품에 필요한 SCSI-3 영구 예약을 지원합니다. iSCSI 대상이 제공하는 LUN (디스크)은 전체 디스크, 파티션 또는 파일 시스템의 평범한 오래된 파일 일 수 있습니다. LIO-Target은 이러한 모든 옵션을 지원합니다. 아래에서는 Ubuntu 12.04 서버에서 LIO-Target을 구성하는 단계를 살펴 보겠습니다. 최근의 다른 배포판도 잘 작동하지만 단계가 약간 다를 수 있습니다.

구성 단계

먼저 Lio-target 패키지를 설치하십시오.

# apt-get install -no-install-recommends targetcli python-urwid Lio 타겟은 targetcli 명령 줄 유틸리티를 사용하여 제어됩니다. 첫 번째 단계는 LUN에 대한 백업 저장소를 만드는 것입니다. 이 예에서는 iSCSI 대상 서버의 파일 시스템에있는 일반 파일 인 파일 기반 LUN을 사용합니다. # targetcli /> cd 백 스토어 / / 백 스토어> ls o-backstores ……………………………………………. […] o- 파일 ………………………… ………………. [0 저장 개체] o- iblock ……………………………………… [0 저장 개체] o-pscsi ………………………………………… .. [0 저장 개체] o- rd_dr …………………………………….. .. [0 저장 개체] o- rd_mcp ……………………………………… lun0 / root / iscsi-lun0 2g (2GB 파일 백업 LUN 만들기)를 작성합니다. [0 Storage Object] / 백 스토어> cd fileio / backstores / fileio>

두번째 단계

이제 LUN이 생성됩니다. Linux 소프트웨어 iSCSI 대상으로 저비용 SAN을 설정하는 방법. 다음으로 클라이언트 시스템이 스토리지에 액세스 할 수 있도록 대상을 설정합니다. / backstores / fileio / lun0> cd / iscsi / iscsi> create (iqn 및 대상 포트 그룹 작성) 작성한 대상 iqn.2003-01.org.linux-iscsi.murray.x8664 : sn.31fc1a672ba1. 선택된 TPG 태그 1. TPG 1을 성공적으로 생성했습니다. 새 노드 입력 /iscsi/iqn.2003-01.org.linux-iscsi.murray.x8664:sn.31fc1a672ba1/tpgt1/iscsi/iqn.20…a672ba1/tpgt1> 속성 인증 설정 = 0 (챕터 인증 해제) / iscsi / iqn.20 … a672ba1 / tpgt1> cd luns /iscsi/iqn.20…a1/tpgt1/luns> create / backstores / fileio / lun0 (대상 LUN 만들기) 선택한 LUN 0. LUN 0을 (를) 성공적으로 생성했습니다. 새 노드 입력 /iscsi/iqn.2003-01.org.linux-iscsi.murray.x8664:sn.31fc1a672ba1/tpgt1/luns/lun0/iscsi/iqn.20…gt1/luns/lun0> cd ../ .. / 포털 iSCSI 트래픽은 많은 대역폭을 소비 할 수 있습니다. 아마도 iSCSI 트래픽은 공용 네트워크가 아닌 전용 (또는 SAN) 네트워크에 있어야합니다. /iscsi/iqn.20…tpgt1/portals> 10.10.102.164 만들기 (연결을 기다리는 포털 만들기) 기본 IP 포트 3260 사용 네트워크 포털 10.10.102.164:3260을 만들었습니다. 새 노드 입력 /iscsi/iqn.2003-01.org.linux-iscsi.murray.x8664:sn.31fc1a672ba1/tpgt1/portals/10.10.102.164:3260 /iscsi/iqn.20….102.164:3260> cd .. /iscsi/iqn.20…tpgt1/portals> 10.11.102.164 만들기 기본 IP 포트 사용 3260 네트워크 포털 10.11.102.164:3260을 만들었습니다. 새 노드 입력 /iscsi/iqn.2003-01.org.linux-iscsi.murray.x8664:sn.31fc1a672ba1/tpgt1/portals/10.11.102.164:3260 /iscsi/iqn.20…102.164:3260> cd ../ ../acls

마지막 단계

Linux 이니시에이터 (클라이언트 시스템)를 등록하여 Linux 소프트웨어 iSCSI 대상으로 저가 SAN 설정을하십시오. 이렇게하려면 시스템의 이니시에이터 이름을 찾아야합니다. Linux의 경우 보통 /etc/iscsi/initiatorname.iscsi에 있습니다. Windows의 경우 초 기자 이름은 구성 탭의 iSCSI 초 기자 속성 패널에 있습니다. /iscsi/iqn.20…a1/tpgt1/acls> iqn.1994-05.com.redhat : f5b312caf756 (이니시에이터 등록 -이 IQN은 초 기자의 IQN입니다.) – 대상에 액세스 할 각 초 기자에 대해이를 수행하십시오. iqn.1994-05.com.redhat의 노드 ACL 작성 : f5b312caf756 맵핑 된 LUN 0을 작성했습니다. 새 노드 입력 /iscsi/iqn.2003-01.org.linux-iscsi.murray.x8664:sn.31fc1a672ba1/tpgt1/acls/iqn.1994-05.com.redhat:f5b312caf756/iscsi/iqn.20….102.164 : 3260> cd / 지금, 설정을 저장하는 것을 잊지 마십시오. 이 단계가 없으면 구성이 지속되지 않습니다. /> saveconfig (설정을 저장하십시오!) /> exit 이제 초기화 장치를 대상에 연결해야합니다. 일반적으로 대상에 연결할 IP 주소를 제공해야합니다. 연결이 완료되면 클라이언트 시스템에 새 디스크가 표시됩니다. 사용하기 전에 디스크를 포맷해야합니다. 그리고 그게 다야! 새 SAN을 사용할 준비가되었습니다. 재미있어! Linux 소프트웨어 iSCSI 대상으로 저비용 SAN을 설정하는 데 문제가 있으면 Linux 클러스터링의 허가를 받아 복제했습니다.

Filed Under: 서버 클러스터 단순화 Tagged With: iscsi, 리눅스 소프트웨어 iscsi 대상으로 저렴한 비용으로 산을 설정

데이터를 복제 할 플랫폼 (호스트 기반 복제 대 SAN 복제)

12월 10, 2018 by Jason Aw Leave a Comment

데이터를 복제 할 플랫폼 선택 - 호스트 기반 또는 저장소 기반?

데이터를 복제 할 플랫폼 선택 – 호스트 기반 또는 저장소 기반?

데이터를 복제하는 두 가지 공통 플랫폼은 데이터 및 데이터를 보유하는 스토리지 배열에서 작동하는 서버 호스트에서 가져온 것입니다. 비즈니스 연속성을위한 원격 복제본을 만들 때 호스트 또는 저장소 기반 솔루션을 배포할지 여부는 복제되는 플랫폼과 사용중인 응용 프로그램의 비즈니스 요구 사항에 따라 크게 달라집니다. 비즈니스가 사이트 재난 발생시 운영에 아무런 영향을주지 않으면 호스트 기반 기술 만이 유일한 실현 가능한 솔루션을 제공합니다.

호스트 기반 복제

데이터를 복제하는 두 플랫폼 중 하나는 호스트 기반 복제입니다. 어느 한 공급 업체의 특정 스토리지 배열에 사용자를 고정시키지 않습니다. 예를 들어, SIOS SteelEye DataKeeper는 공급 업체와 관계없이 모든 어레이에서 모든 어레이로 복제 할 수 있습니다. 이 기능은 궁극적으로 비용을 절감하고 사용자가 자신의 환경에 맞는 것을 선택할 수있는 유연성을 제공합니다. 대부분의 호스트 기반 복제 솔루션은 IP 네트워크를 통해 데이터를 기본적으로 복제 할 수 있으므로 사용자는이 기능을 구현하기 위해 값 비싼 하드웨어를 구입할 필요가 없습니다. 호스트 기반 솔루션은 스토리지를 인식하지 못하므로 IT 관리자는 기업의 요구 사항에 맞는 모든 스토리지를 자유롭게 선택할 수 있습니다. 복제 소프트웨어는 이기종 스토리지 지원을 제공하는 애플리케이션 플랫폼에 마운트 할 수있는 모든 스토리지 하드웨어와 함께 작동합니다. 블록 또는 볼륨 레벨에서 작동 할 수 있으므로 클러스터 구성에 이상적입니다. 한 가지 단점은 호스트 기반 솔루션이 서버 리소스를 소비하고 전체 서버 성능에 영향을 미칠 수 있다는 것입니다. 이러한 가능성에도 불구하고 IT 관리자가 멀티 벤더 스토리지 인프라를 필요로하거나 특정 호스트 기반 애플리케이션에 레거시 투자 또는 내부 전문 기술을 보유하고있는 경우 호스트 기반 솔루션이 여전히 적절할 수 있습니다.

저장소 기반 복제

데이터를 복제 할 수있는 또 다른 플랫폼은 스토리지 기반 복제로 OS 독립적이며 처리 오버 헤드가 없습니다. 그러나 공급 업체는 종종 사용자가 유사한 배열에서 복제 할 것을 요구합니다. 이 요구 사항은 특히 기본 사이트에서 고성능 디스크를 사용하는 경우 비용이 많이들 수 있으며 이제는 보조 사이트에서 동일한 디스크를 사용해야합니다. 또한 스토리지 기반 솔루션은 기본적으로 Fibre Channel을 통해 복제되며 IP 네트워크를 통해 데이터를 전송하기 위해 추가 하드웨어가 필요하므로 비용이 추가로 증가합니다. 스토리지 기반 대안은 전용 스토리지 공급 업체의 통합 솔루션의 이점을 제공합니다. 이러한 솔루션은 스토리지 기능의 컨트롤러를 복제 기능의 운영 플랫폼으로 활용합니다. 하드웨어 및 소프트웨어의 긴밀한 통합으로 인해 스토리지 공급 업체는 복제 구성에 대한 전례없는 제어를 제공하고 대체 복제 방식과 일치시키기 어려운 서비스 수준 보장을 허용합니다. 대부분의 스토리지 공급 업체는 서버 가상화를 보완하고 가상 시스템 스토리지 장애 조치와 같은 주요 기능을 사용하기 위해 제품을 조정했습니다. 일부 기업은 특정 스토리지 공급 업체와 장기간 비즈니스 관계를 맺을 수도 있습니다. 이 경우 스토리지 솔루션이 적합 할 수 있습니다.

선택 사항

그러나 높은 서비스 품질은 비용으로 발생합니다. 스토리지 기반 복제는 언제나 like-to-like 스토리지 장치 구성의 전제 조건을 설정합니다. 즉, 복제 기능을 지원하기 위해 유사하게 구성된 두 개의 고급형 스토리지 배열을 배치해야하므로 비용이 증가하고 조직이 하나의 공급 업체의 스토리지 솔루션에 묶여 있어야합니다. 이러한 특정 스토리지 공급 업체에 대한 잠금은 단점이 될 수 있습니다. 일부 스토리지 벤더는 스토리지 어레이 제품 라인에 호환성 제한이있어 잠재적으로 기술 업그레이드 및 데이터 마이그레이션 비용이 높습니다. 스토리지 대안을 조사 할 때 IT 관리자는 총 소유 비용에주의를 기울여야합니다. 향후 라이센스 비용 및 지원 계약 비용은 장기적으로 비용에 영향을 미칩니다. 비용은 주요 고려 사항이지만 라이센스 비용을 초과하는 몇 가지 요소의 영향을받습니다. 솔루션에 전용 하드웨어가 필요합니까 아니면 기존 하드웨어와 함께 사용할 수 있습니까? 솔루션에 네트워크 인프라 확장이 필요합니까, 그렇다면 얼마나됩니까? 복제를 사용하여 별도의 서버, 저장소 또는 사이트에 데이터의 보조 복사본을 배치하는 경우이 방법은 특정 하드웨어 중복을 의미합니다. 중복 하드웨어 요구 사항을 충족시키기 위해 기존 인프라를 재배포하기위한 옵션을 제공하는 복제 제품은 자본 지출을 덜 필요로합니다.

장점과 단점

호스트 기반 또는 저장소 기반 복제 솔루션을 결정하기 전에 다음 표에 설명 된대로 장단점을 신중하게 고려하십시오.

호스트 기반 복제 저장소 기반 복제
찬성
  • 스토리지 불가 지론
  • 동기화 및 비동기
  • 데이터는 모든 저장소에 상주 할 수 있습니다.
  • 스토리지 업그레이드의 영향을받지 않음
  • 스토리지 및 복제를위한 단일 공급 업체
  • 호스트 시스템에 부담 없음
  • OS 불가 지론
단점
  • 호스트에서 컴퓨팅 리소스 사용

 

  • 공급 업체 고정
  • 높은 비용
  • 데이터는 배열에 있어야합니다.
  • 파이버 채널의 거리 제한
최고로 잘 맞는
  • 멀티 벤더 스토리지 환경
  • 동기화 또는 비동기 옵션 필요
  • 장애 조치 클러스터 구현
  • 여러 대상에 복제
  • 단일 공급 업체 선호
  • 제한된 거리와 통제 된 환경
  • 단일 타겟으로 복제

  SIOS가 플랫폼에서 데이터를 복제 할 수있는 방법을 이해하려면 성공 사례 LinuxClustering의 허가를 얻어서 복제하십시오

Filed Under: 서버 클러스터 단순화 Tagged With: 데이터를 복제하는 플랫폼

가용성 공식 – 고 가용성 솔루션

12월 9, 2018 by Jason Aw Leave a Comment

가용성 공식 - 고 가용성 솔루션 .jpg

가용성 공식

가용성 방정식에 익숙합니까? 간단히 말해서,이 방정식은 애플리케이션을 가용성으로 복원하는 데 필요한 총 시간이 애플리케이션에 문제가 발생했음을 감지하는 데 필요한 시간과 복구 조치를 수행하는 데 필요한 시간을 합한 것과 같습니다.

TRESTORE = TDETECT + TRECOVER

고 가용성 솔루션의 주요 개념

이 수식에서는 고 가용성 (HA)의 핵심 개념 인 클러스터링, 문제 감지 및 후속 복구를 소개합니다. HA 솔루션은 비즈니스 응용 프로그램 구성 요소의 상태를 모니터링합니다. 문제가 발견되면 이러한 솔루션은 서비스를 복원합니다. 고 가용성 솔루션을 배포하는 목적은 다운 타임을 최소화하는 것입니다. 탐지 및 복구 시간을 줄이는 것은 배포하도록 선택한 모든 HA 솔루션의 두 가지 중요한 작업입니다. 오늘날의 응용 프로그램은 서버, 저장소, 네트워크 인프라 등 기술 조합입니다. HA 옵션을 검토 할 때 각 솔루션이 모든 중단 유형을 감지하고 복구하는 데 사용하는 기술을 이해해야합니다. 각 기술은 서비스 복원 시간에 직접적인 영향을 미칩니다.

로컬 검색 및 복구

고 가용성 솔루션은 간단합니다. 가능한 가장 빠른 복원 시간을 제공하는 데 중요한 기술 중 하나가 로컬 탐지 및 복구 (서비스 수준 문제 감지 및 복구라고도 함)입니다. 기본 클러스터링 솔루션에서는 서버가 연결됩니다. 서버 실패시 하나 이상의 서버가 다른 서버의 작업을 인계받을 수 있도록 구성됩니다. 클러스터의 서버 노드는 하트 비트 신호라고도하는 작은 데이터 패킷을 계속해서 보내고 이들이 "활성"상태임을 나타냅니다. 간단한 클러스터 환경에서 한 서버가 하트 비트 생성을 중지하면 다른 클러스터 구성원은이 서버가 다운 된 것으로 간주합니다. 그런 다음 해당 서버의 작동 도메인에 대한 책임을 인수하는 프로세스를 시작합니다. 이 접근 방식은 서버 수준에서 실패를 감지하는 데 적합합니다. 그러나 문제로 인해 하트 비트 신호가 중단되거나 중단되지 않으면 서버 수준의 탐지가 적절하지 않습니다. 그보다는 실제로 정전의 정도와 영향을 확대 할 수 있습니다. 예를 들어, Apache 프로세스가 중단되면 서버가 여전히 하트 비트를 보낼 수 있습니다. 웹 서버 서브 시스템이 주요 기능 수행을 중단하더라도. 동일한 서버 나 다른 서버에서 Apache 하위 시스템을 다시 시작하는 대신 기본 서버 수준 클러스터링 솔루션은 백업 서버에서 오류가 발생한 서버의 전체 소프트웨어 스택을 다시 시작하므로 사용자가 중단되고 복구 시간이 연장됩니다.

어떻게 작동 하는가?

로컬 검색 및 복구를 사용하는 고급 클러스터링 솔루션은 개별 클러스터 서버 내에 상태 모니터링 에이전트를 배포하여 파일 시스템, 데이터베이스, 사용자 수준 응용 프로그램, IP 주소 등과 같은 개별 시스템 구성 요소를 모니터링합니다. 이러한 에이전트는 모니터링되는 구성 요소에 특정한 휴리스틱을 사용합니다. 따라서 에이전트는 운영 문제를 예측하고 감지 한 다음 가장 적절한 복구 작업을 수행 할 수 있습니다. 대부분의 경우 가장 효율적인 복구 방법은 동일한 서버에서 문제가되는 하위 시스템을 중지했다가 다시 시작하는 것입니다. 동일한 물리적 서버 내에서 복구를 사용 가능하게함으로써 응용 프로그램을 사용자 가용성으로 복원하는 시간을 크게 줄일 수 있습니다. 또한 단순히 서버 수준의 하트 비트를 관찰하는 것보다 세분화 된 수준에서 오류를 감지합니다. Linux 용 SteelEye Protection Suite (예 : SIOS)와 같은 솔루션은 사용자 환경에 대해 이러한 수준의 탐지 및 복구를 제공합니다.  배포하는 HA 솔루션이 로컬 탐지 및 복구를 지원할 수 있는지 확인하십시오. 귀사의 프로젝트에 고 가용성 솔루션을 즐기시겠습니까? 우리와 함께 확인하십시오. 더 많은 참고 문헌이 필요합니다. 여기에는 성공 사례가 있습니다. Linux 클러스터링의 허락을 받아 재현

Filed Under: Datakeeper, 서버 클러스터 단순화 Tagged With: 고 가용성 솔루션

12 고 가용성 솔루션을 선택하기위한 점검 목록 항목

12월 6, 2018 by Jason Aw Leave a Comment

고 가용성 솔루션 선택

고 가용성 솔루션을 선택하기위한 12 가지 검사 목록 항목

고 가용성 솔루션을 선택할 때 몇 가지 기준을 고려해야합니다. 이는 솔루션의 총 비용에서 클러스터 구성 및 관리의 용이성, 하드웨어 및 소프트웨어에 대한 특정 제한 사항까지 다양합니다. 이 게시물은 가장 중요한 체크리스트 항목 중 12 개에 간단히 적용됩니다.

1. 표준 OS 및 응용 프로그램 버전 지원

OS, 데이터베이스 또는 응용 프로그램 소프트웨어의 엔터프라이즈 또는 고급 버전이 필요한 솔루션은 범용 서버 환경으로 전환 할 경우의 비용 이점을 크게 줄일 수 있습니다. 적절한 HA 미들웨어를 배포하십시오. 이 방법을 사용하면 표준 버전의 응용 프로그램과 OS를 고 가용성으로 사용할 수 있습니다. 동시에 비즈니스 환경의 가동 시간 요구 사항을 충족하십시오.

2. 다양한 데이터 저장 장치 구성 지원

HA 클러스터를 전개 할 때, 보호 된 응용 프로그램이 필요로하는 데이터는 응용 프로그램을 서비스해야하는 모든 시스템에서 사용 가능해야합니다. 이 데이터는 데이터 복제를 통해 공유 SCSI 또는 파이버 채널 저장소를 사용하거나 NAS 장치를 사용하여 공유 할 수 있습니다. 어떤 방법으로 배포하든, 사용하는 HA 제품은 비즈니스 요구 사항에 따라 변경할 수 있도록 모든 데이터 구성을 지원할 수 있어야합니다.

삼. 이기종 솔루션 구성 요소 사용 기능

일부 HA 클러스터링 솔루션은 클러스터 내의 모든 시스템이 동일한 구성을 요구합니다. 이 요구 사항은 클러스터링 기술이 서버 또는 스토리지를 차별화하고 OS 벤더 사이에서 지원해야하는 구성을 제한하려는 하드웨어 관련 솔루션에 공통적으로 적용됩니다. 이 제한 사항은 확장 된 서버를 임시 백업 노드로 배포하고 클러스터 배포에서 기존 하드웨어를 다시 사용할 수있는 능력을 제한합니다. 동일하게 구성된 서버를 배포하는 것이 귀하의 필요에 맞는 올바른 선택 일 수 있지만 결정은 귀하의 HA 솔루션 제공 업체에 의해 결정되어서는 안됩니다.

4. 클러스터 내 3 개 이상의 노드 지원

클러스터에서 지원할 수있는 노드 수는 확장 성의 중요한 척도입니다. 엔트리 레벨 HA 솔루션은 대개 액티브 / 패시브 모드에서 하나의 2 노드 클러스터로 제한합니다. 이 구성은 대기 서버 추가를 통한 가용성 향상을 제공하지만 여전히 응용 프로그램 중단 시간에 노출 될 수 있습니다. 2 노드 클러스터 구성에서 어떤 이유로 서버 하나가 작동 중지 된 경우 나머지 서버는 단일 실패 지점이됩니다. 3 개 이상의 노드를 클러스터링하면 더 높은 수준의 보호 기능을 제공 할 수 있습니다. 동시에 확장 성이 뛰어난 구성을 구축 할 수도 있습니다.

5. 액티브 / 액티브 및 액티브 / 스탠바이 구성 지원

프로젝트에 적합한 고 가용성 솔루션을 선택하는 것이 중요합니다. 활성 / 대기 구성에서 한 서버는 유휴 상태이며 클러스터 구성원의 작업 부하를 인계받습니다. 이 설정에는 컴퓨팅 리소스 투자를 제대로 활용하지 못하는 단점이 있습니다. IT 지출에서 최대 이익을 얻으려면 클러스터 노드가 활성 / 활성 구성에서 실행될 수 있는지 확인하십시오.

6. 노드 및 개별 서비스 수준에서의 문제 탐지

모든 HA 소프트웨어 제품은 클러스터 서버 기능의 문제점을 감지 할 수 있습니다. 이 작업은 클러스터 구성원이 신호 전달을 중지하면 클러스터 내의 서버간에 하트 비트 신호를 보내고 복구를 시작하여 수행됩니다. 그러나 고급 HA 솔루션은 또 다른 문제를 감지 할 수 있습니다. 개별 프로세스 나 서비스가 사용할 수 없게 만들지 만 서버가 하트 비트 신호를 보내거나 응답하지 않게하는 문제가 발생할 때 발생합니다. HA 소프트웨어의 주요 기능은 최종 사용자가 응용 프로그램을 사용할 수 있는지 확인하는 것이므로 이러한 서비스 수준의 중단을 감지하고 복구하는 것이 중요한 기능입니다. HA 솔루션이 노드 및 서비스 레벨 문제를 모두 감지 할 수 있는지 확인하십시오.

7. 노드 내 및 노드 간 복구 지원

클러스터 노드와 노드 내에서 복구 작업을 수행하는 기능 또한 중요합니다. 노드 간 복구에서 한 노드가 다른 노드에 대한 책임의 전 영역을 담당합니다. 시스템 레벨 하트 비트가 누락되면 하트 비트를 보내야하는 서버는 작동 불능으로 간주되고 다른 클러스터 구성원은 복구 조작을 시작합니다. 노드 내 또는 로컬 복구의 경우 실패한 시스템 서비스는 먼저 실행중인 서버 내에서 복원을 시도합니다. 이 작업은 일반적으로 서비스 및 종속 시스템 리소스를 중지하고 다시 시작하여 수행합니다. 이 복구 방법은 훨씬 빠르며 다운 타임을 최소화합니다.

8. 서버 측 복구의 클라이언트 연결에 대한 투명성

애플리케이션 또는 전체 노드의 서버 측 복구는 클라이언트 측 사용자에게 투명해야합니다. 가상화 된 IP 주소 또는 서버 이름의 사용, 복구 중 실제 컴퓨팅 엔티티로의 가상 컴퓨팅 리소스 매핑 및 네트워크 라우팅 테이블 자동 업데이트를 통해 시스템이 복구 된 응용 프로그램과 데이터에 액세스하는 데 클라이언트 시스템을 변경하지 않아도됩니다. 복구 된 응용 프로그램에 액세스하기 위해 수동으로 클라이언트 측 구성을 변경해야하는 솔루션은 복구 시간을 크게 늘립니다. 필요한 상호 작용으로 인해 추가 오류가 발생할 수 있습니다. 복구는 서버와 클라이언트 모두에서 자동화되어야합니다.

9. 계획되고 계획되지 않은 다운 타임에 대한 보호

계획되지 않은 서비스 중단에 대한 보호 기능 외에도 배포하는 HA 솔루션은 유지 관리 활동으로 인한 중단 시간을 줄이기위한 관리 도구로 사용할 수 있어야합니다. 클러스터 구성원간에 응용 프로그램을 주문형으로 이동할 수있는 기능을 제공함으로써 응용 프로그램과 사용자를 첫 번째 유지 관리를 수행하는 동안 두 번째 서버로 마이그레이션 할 수 있습니다. 따라서 최종 사용자가 IT 리소스를 사용할 수없는 유지 관리 기간이 필요하지 않습니다. HA 솔루션이 클러스터 노드간에 응용 프로그램과 필요한 리소스를 수동 (요청시)으로 이동하는 간단하고 안전한 방법을 제공하는지 확인하십시오.

10. 일반적인 비즈니스 기능을위한 선반 보호

평가할 모든 HA 솔루션에는 파일 시스템, IP 주소, 데이터베이스, 응용 프로그램 등 특정 시스템 자원의 상태를 모니터하도록 설계된 테스트 및 지원되는 에이전트 또는 모듈이 포함되어야합니다. 이러한 모듈을 복구 모듈이라고도합니다. 공급 업체가 제공 한 모듈을 배포하면 공급 업체와 다른 고객이 이미 수행 한 런타임 모두에서 이익을 얻을 수 있습니다. 또한 이러한 솔루션 구성 요소를 지속적으로 지원하고 유지 관리 할 수 ​​있습니다.

11. 맞춤형 비즈니스 애플리케이션을위한 보호 기능을 쉽게 통합 할 수있는 기능

기업에 보호 조치를 원하지만 공급 업체에서 제공 한 복구 모듈이없는 응용 프로그램이있을 수 있습니다. 따라서 HA 솔루션의 보호 스키마에 비즈니스 애플리케이션을 쉽게 통합 할 수있는 방법이 필요합니다. 응용 프로그램을 수정하지 않고 특히 공급 업체 특정 API를 포함하지 않고이 작업을 수행 할 수 있어야합니다. 애플리케이션을 보호하기위한 예제와 단계별 프로세스를 제공하는 소프트웨어 개발자 키트가 있어야합니다. 또한 필요한 경우 제공 업체가 제공하는 지원 서비스도 함께 제공됩니다.

12. 클러스터 구축 및 관리의 용이성

HA 클러스터를 둘러싼 공통된 신화는 배포 및 관리에 비용이 많이 들고 복잡하다는 것입니다. 이것은 반드시 사실 일 필요는 없습니다. 초기 클러스터 구성을 지원하려면 클러스터 관리 인터페이스를 마법사 기반으로 사용해야합니다. 새 요소가 클러스터에 추가 될 때 자동 요소 발견이 포함되어야합니다. 마찬가지로 전체 클러스터의 상태를 한 눈에 모니터링 할 수 있어야합니다. 마지막으로 모든 클러스터 메타 데이터는 HA 방식으로 저장해야합니다. 손상 또는 중단으로 인해 전체 클러스터가 분리 될 수있는 클러스터 내의 단일 쿼럼 디스크가 아닙니다. 이 체크리스트의 기능을 살펴봄으로써 특정 HA 요구에 가장 적합한 결정을 내릴 수 있습니다. 고 가용성 솔루션을 선택하는 것은 로켓 과학이 아닙니다. Linuxclustering의 허가를 받아 복제했습니다.

Filed Under: 서버 클러스터 단순화 Tagged With: 고 가용성 솔루션 선택

실시간 복제를 지원하는 데 얼마나 많은 대역폭이 필요한지 알고 있습니까?

12월 5, 2018 by Jason Aw Leave a Comment

실시간 복제를 지원하는 대역폭

실시간 복제를 지원하는 데 얼마나 많은 대역폭이 필요합니까?

다중 사이트 또는 WAN (Wide Area Network) 구성에서 데이터를 복제하려면 먼저 한 가지 중요한 질문에 대답해야합니다. 파티션을 성공적으로 복제하고 원본 파티션이 미러링 상태가되도록 충분한 대역폭이 있습니까? 하루 종일 업데이트 되었습니까? 미러를 미러링 상태로 유지하는 것이 중요합니다. 파티션 전환은 미러가 미러링 상태 일 때만 허용됩니다.

따라서 실시간 복제를 지원하는 대역폭의 양이 네트워크 대역폭 요구 사항을 결정하는 중요한 초기 단계입니다. 데이터를 복제하는 데 필요한 네트워크 대역폭의 양을 나타내는 값인 변화율을 어떻게 측정 할 수 있습니까?

기본 변화율 확립

먼저이 명령을 사용하여 미러링 할 파일 또는 파티션의 기본 일일 변동률을 결정하십시오. 예를 들어, / dev / sda3에 대해 하루에 기록 된 데이터의 양을 측정하려면 다음 명령을 실행하십시오 : MB_START =`awk '/ sda3 / {print $ 10 / 2 / 1024}'/ proc / diskstats `24 시간 기다린 후 다음 명령을 실행하십시오 : MB_END =`awk '/ sda3 / {print $ 10 / 2 / 1024}'/ proc / diskstats` 일일 변경 비율은 메가 바이트 단위로 MB_END – MB_START입니다. 다양한 네트워크 연결을 통해 누를 수있는 데이터의 양은 다음과 같습니다.

  • T1 (1.5Mbps) : 14,000MB / 일 (14GB)
  • T3 (45Mbps) : 410,000MB / day (410GB)
  • 기가비트 (1Gbps) : 5,000,000MB / 일 (5TB)

변화의 구체적인 비율 확립

다음은 실시간 복제를 지원하기 위해 대역폭을 계산하는 방법입니다. 상세한 변화율을 측정해야합니다. 이 데이터를 수집하는 가장 좋은 방법은 일정 기간 (예 : 1 일) 동안 디스크 쓰기 활동을 기록하여 최대 디스크 쓰기 기간을 결정하는 것입니다. 이렇게하려면 시스템의 타임 스탬프를 기록한 다음 / proc / diskstats 덤프를 기록하는 cron 작업을 작성하십시오. 예를 들어 2 분마다 디스크 통계를 수집하려면 다음 링크를 / etc / crontab에 추가하십시오. * / 2 * * * * root (date; cat / proc / diskstats) >> /path_to/filename.txt (예 : 1 일, 1 주일), cron 작업을 비활성화하고 결과 / proc / diskstats 출력 파일을 안전한 위치에 저장하십시오.

변화율 데이터의 분석 및 그래프 작성

다음으로 상세한 변화율 데이터를 분석해야합니다. 이 작업을 위해 roc-calc-diskstats 유틸리티를 사용할 수 있습니다. 이 유틸리티는 / proc / diskstats 출력 파일을 사용하고 데이터 세트의 디스크 변경 비율을 계산합니다. 이 유틸리티를 실행하려면 다음 명령을 사용하십시오. # ./roc-calc-diskstats <interval> <start_time> <diskstats-data-file> [dev-list] 예를 들어 다음은 디스크 별 피크 I / O 정보)를 출력 파일 results.txt에 추가합니다. # ./roc-calc-diskstats 2m "Jul 22 16:04 :01 "/root/diskstats.txt sdb1, sdb2, sdc1> results.txt 다음은 results.txt 파일의 샘플 결과입니다. 샘플 시작 시간 : Tue Jul 12 23:44 :01 2011 샘플 종료 시간 : Wed Jul 13 23:58 :01 2011 샘플 간격 : 120 초 # 샘플 : 727 샘플 길이 : 87240 초 (파일에서 원시 시간 : Tue Jul 12 23:44 :01 EST 2011, Wed Jul 13 23:58 :01 EST 2011) 장치 dm-31, dm-32, dm-33, dm-4, dm-5, 전체 dm-31 피크의 변화율 : 0.0 B / s (@ bue 7 월 12 일 23:44 :01 2011) 평균 : 0.0 B / s (0.0 b / s) dm-32 피크 : 398.7 KB / s (3.1 Mb / s) (@ Wed Jul 13 19:28 :01 2011) 평균 : 19.5 KB / s (156.2 Kb / s) dm-33 피크 : 814.9 KB / s (6.4 Mb / s) (@ Wed Jul 13 23:58 :01 2011) 평균 : 11.6 KB / s (92.9 Kb / s) dm-4 피크 : 185.6 KB / s (1.4 Mb / s) (@ Wed Jul 13 15:18 :01 2011) 평균 : 25.7 KB / s (205.3 Kb / s) dm-5 피크 : 2.7 MB / s (21.8 Mb / s) (@ Wed Jul 13 10:18 :01 2011) average : 293.0 KB / s (2.3 Mb / s) 총 피크 : 2.8 MB / s (22.5 Mb / s) (@ Wed Jul 13 10:18 :2011 년 1 월) average : 349.8 KB / s (2.7 Mb / s) 시간 경과에 따른 특정 대역폭 요구 사항을 이해하는 데 도움이되도록 자세한 변경 속도 데이터를 그래프로 나타낼 수 있습니다. 다음은 results.csv에 그래프 데이터를 덤프합니다 (results.txt에 요약을 덤프 함). # export OUTPUT_CSV = 1 # ./roc-calc-diskstats 2m "Jul 22 16:04 :01 "/root/diskstats.txt sdb1, sdb2, sdc1 2> results.csv> results.txt SIOS는 roc-calc의 데이터로 덮어 쓸 수있는 샘플 데이터가 들어있는 템플릿 스프레드 시트 diskstats-template.xlsx를 만들었습니다 -diskstats. 다음 일련의 이미지는 스프레드 시트를 사용하는 과정을 보여줍니다.

  1. results.csv를 열고 전체 열을 포함하여 모든 행을 선택합니다.

실시간 복제를 지원하는 대역폭

  1. diskstats-template.xlsx를 열고 diskstats.csv 워크 시트를 선택하십시오.

2-diskstats-worksheet

  1. 셀 1-A에서 마우스 오른쪽 버튼을 클릭하고 복사 된 셀 삽입을 선택합니다.
  2. 복제에 할당 한 대역폭의 양 (초당 메가 비트)을 반영하도록 워크 시트의 왼쪽 하단을 향해 셀의 대역폭 값을 조정합니다 (다음 그림 참조). 오른쪽의 셀은 수집 된 원시 데이터와 일치하도록 초당 바이트로 자동 변환됩니다.

3-extend-existing-bandwidth_536x96

  1. 다음 행 및 열 번호를 메모하십시오.
    • 합계 (다음 그림의 행 6)
    • 대역폭 (다음 그림의 행 9)
    • 마지막 데이터 점 (다음 그림의 열 R)

4-note-row-colums_535x86

  1. 대역폭 대 ROC 워크 시트를 선택하십시오.

5 대역폭 워크 시트

  1. 그래프를 마우스 오른쪽 버튼으로 클릭하고 데이터 선택을 선택하십시오.
  2. 데이터 원본 선택 대화 상자에서 범례 항목 (계열) 목록에서 대역폭을 선택한 다음 편집을 클릭합니다.

6 편집 대역폭

  1. 시리즈 편집 대화 상자에서 시리즈 값 필드에 다음 구문을 사용하십시오. = diskstats.csv! $ B $ <row> : $ <final_column> $ <row> 다음 그림은 스프레드 B9에서 R9까지의 연속 값을 보여줍니다 .

7 대역폭 값

  1. 확인을 클릭하여 시리즈 편집 상자를 닫습니다.
  2. 데이터 원본 선택 상자에서 범례 항목 (계열) 목록에서 ROC를 선택한 다음 편집을 클릭합니다.

8-edit-roc

  1. 시리즈 편집 대화 상자에서 시리즈 값 필드에 다음 구문을 사용하십시오. = diskstats.csv! $ B $ <row> : $ <final_column> $ <row> 다음 그림은 스프레드 B6에서 R6까지의 계열 값을 보여줍니다 .

9-roc-values

  1. 확인을 클릭하여 시리즈 편집 상자를 닫은 다음 확인을 클릭하여 데이터 소스 선택 상자를 닫습니다.

대역폭 대 ROC 그래프가 업데이트됩니다. 결과를 분석하여 데이터 복제를 지원할 충분한 대역폭이 있는지 확인하십시오.

다음 단계

변경 비율이 사용 가능한 대역폭을 초과하는 경우 복제 솔루션이 최적의 성능을 발휘할 수 있도록 다음 사항 중 일부를 고려해야합니다.

  • 복제 솔루션 또는 네트워크 하드웨어에서 압축을 사용합니다. Linux 용 SteelEye Protection Suite의 일부인 Linux 용 DataKeeper는 이러한 유형의 압축을 지원합니다.
  • 복제 할 필요가없는 임시 데이터 및 스왑 파일을위한 복제되지 않은 로컬 저장소를 만듭니다.
  • 복제되는 데이터의 양을 줄입니다.
  • 네트워크 용량을 늘리십시오.

실시간 복제를 지원하기 위해 대역폭을 계산하는 것과 같은 빠른 방법을 보려면 Linux 클러스터링의 허가로 복제 된 블로그를 읽어보십시오.

Filed Under: 서버 클러스터 단순화 Tagged With: 실시간 복제를 지원하는 대역폭

  • « Previous Page
  • 1
  • 2
  • 3
  • Next Page »

최근 게시물

  • Nutanix 환경에서 고가용성 솔루션을 선택하기 위한 10가지 고려 사항
  • 내 서버는 일회용인가요? 고가용성 소프트웨어가 클라우드 모범 사례에 어떻게 적용되는가?
  • 재난에 취약한 세상을 위한 데이터 복구 전략
  • DataKeeper와 Baseball: 재해 복구에 대한 전략적 접근
  • SQL Server 가동 중지 위험에 대한 예산 책정

가장 인기있는 게시물

우리의 메일 링리스트에 가입하세요

Copyright © 2025 · Enterprise Pro Theme on Genesis Framework · WordPress · Log in