SIOS SANless clusters

SIOS SANless clusters High-availability Machine Learning monitoring

  • Home
  • Produk
    • SIOS DataKeeper for Windows
    • SIOS Protection Suite for Linux
  • Berita dan acara
  • Cluster server penyederhanaan
  • Kisah sukses
  • Hubungi kami
  • English
  • 中文 (中国)
  • 中文 (台灣)
  • 한국어
  • Bahasa Indonesia
  • ไทย

Cara Melakukan Replikasi Pengujian Kinerja dengan SIOS DataKeeper

Agustus 10, 2024 by Jason Aw Leave a Comment

How to Perform Performance Testing Replication with SIOS DataKeeper

Cara Melakukan Replikasi Pengujian Kinerja dengan SIOS DataKeeper

Mengonfigurasi replikasi untuk database produksi bisa menjadi tugas yang cukup menakutkan terutama jika Anda belum melakukan riset sebelumnya. Blog ini akan membahas banyak bagian dari aspek tersulit dalam menyiapkan lingkungan Anda dengan benar… kinerja. Memahami poin-poin penting ini akan membuat Anda unggul dan memastikan produksi Go-Live Anda tidak mengalami hambatan di menit-menit terakhir.

Hal pertama dan paling mendasar yang perlu dipertimbangkan adalah memilih jenis cermin yang tepat untuk konfigurasi Anda. SIOS DataKeeper hadir dengan dua opsi untuk tipe cermin selama proses pembuatan, Sinkron dan Asinkron. Salah satu dari opsi ini memiliki kelebihan dan kekurangannya masing-masing, bergantung pada lingkungan Anda.

Memilih Jenis Cermin

Cermin sinkron paling unggul di lingkungan LAN dengan koneksi berkecepatan tinggi dan memberikan konsistensi penulisan 1:1 pada saat berkomitmen ke sistem utama. Namun jika jaringan, atau penyimpanan target tidak mampu mengimbangi throughput sistem utama, Anda akan melihat pengurangan kecepatan tulis untuk menjaga konsistensi penulisan sinkron. Oleh karena itu pencerminan sinkron tidak disarankan untuk WAN atau lingkungan latensi tinggi.

Namun cermin asinkron sempurna untuk lingkungan WAN. Cermin asinkron menyediakan semua fungsi yang sama untuk memastikan konsistensi penulisan 1:1 antar node, namun perbedaannya adalah penulisan dilakukan ke sistem utama sebelum penulisan dilakukan ke sistem target. Hal ini dimungkinkan karena pemanfaatan bitmap yang juga dikenal sebagai log maksud, bitmap melacak semua perubahan yang terjadi pada sistem pada tingkat blok dan menulis data ke target secepat mungkin melalui simpanan yang dikenal sebagai a menulis antrian. Antrean tulis dapat dibatasi berdasarkan jumlah penulisan atau total MB data dan ketika batas tersebut tercapai, mirror akan berhenti sejenak dan data akan disinkronkan, mencegah failover saat data tidak disinkronkan.

Konfigurasi Perangkat Keras:

Sekarang setelah Anda memutuskan jenis cermin mana yang paling sesuai dengan lingkungan Anda, penting untuk memahami bahwa DataKeeper bukanlah keajaiban, DataKeeper hanya dapat menulis dan mereplikasi secepat yang dimungkinkan oleh sistem Anda sehingga memiliki perangkat keras yang mampu mencapai throughput yang dibutuhkan oleh aplikasi Anda sangatlah penting. Berikut beberapa saran dan tip untuk memastikan Anda memiliki perangkat keras yang diperlukan untuk mencapai tujuan replikasi Anda.

  1. Pastikan sistem Utama dan Target Anda memiliki perangkat keras penyimpanan yang identik. Misalnya IOPS target harus sama dengan IOPS sumber. Jika tidak, komponen paling lambat di lingkungan tersebut akan menjadi penghambat kecepatan tulis. Perangkat keras yang cocok akan selalu memberikan kinerja yang lebih baik.
  2. Memahami pentingnya bitmap, cara termudah dan termurah untuk memberikan peningkatan kinerja yang signifikan adalah dengan menyimpan bitmap pada penyimpanan khusus berkecepatan tinggi. Bitmapnya sangat kecil sehingga penyediaan SSD 5 atau 10 GB sudah cukup dan memberikan peningkatan kinerja yang besar.
  3. Uji perangkat keras mandiri dengan pemahaman bahwa replikasi data akan menimbulkan sejumlah overhead. Misalnya jika Anda memiliki persyaratan untuk mencapai 10.000 IOPS di lingkungan Anda, pastikan perangkat keras Anda minimal dapat mencapai 10.000 IOPS mandiri secara konsisten di semua node yang akan menjadi bagian dari cluster. Jika Anda ingin melakukan pencerminan sinkron, pastikan Anda memiliki persyaratan melebihi persyaratan minimum karena overhead lebih lanjut diterapkan untuk menjaga konsistensi sinkron. Jaringan juga perlu diuji bebannya untuk memastikan Anda dapat mentransfer data yang diperlukan untuk skema replikasi Anda.
  4. Ketahui cara menguji dengan benar. Saat memanfaatkan lingkungan pengujian untuk memverifikasi kemampuan produksi, penting untuk meniru penyiapan sedekat mungkin. Perlu dipahami bahwa Anda tidak dapat menyiapkan seluruh klon database produksi hanya untuk menguji replikasi, namun menggunakan alat pembuatan data yang benar dapat memberikan indikasi yang lebih baik mengenai kemampuan performa saat ini. Diskspd adalah alat gratis yang dapat digunakan untuk beberapa pengujian dasar, tetapi dalam dunia SQL, HammerDB memberikan indikator kinerja dunia nyata yang jauh lebih baik.

DiskSpd:https://github.com/microsoft/diskspd
PaluDB:https://www.hammerdb.com/

  1. Terakhir kami memiliki penyetelan DataKeeper, ada pengaturan yang dapat dikonfigurasi di luar tipe cermin dalam DataKeeper. Memodifikasinya umumnya sedikit lebih bernuansa dan paling baik dilakukan berdasarkan saran dari tim dukungan SIOS. Namun, jika Anda telah mengonfirmasi bahwa semua rekomendasi lainnya sudah diterapkan, maka penyesuaian beberapa parameter DataKeeper dapat memberikan peningkatan terakhir dalam performa yang diperlukan untuk memenuhi metrik yang diperlukan. Beberapa contoh penyetelan adalah meningkatkan jumlah penulisan luar biasa yang ada dalam antrean tulis Anda atau mengubah seberapa sering file bitmap dipindahkan ke disk.

Direproduksi dengan izin dariSIOS

Filed Under: Cluster server penyederhanaan Tagged With: replikasi

Cara Menggabungkan Pencadangan, Replikasi, dan Clustering Ketersediaan Tinggi

Juli 22, 2020 by Jason Aw Leave a Comment

Cara Menggabungkan Pencadangan, Replikasi, dan Clustering Ketersediaan Tinggi

Cara Menggabungkan Pencadangan, Replikasi, dan Clustering Ketersediaan Tinggi

Pencadangan, replikasi, dan ketersediaan tinggi (HA) adalah bagian mendasar dari manajemen risiko TI, dan mereka sangat diperlukan seperti roda pada mobil. Replikasi juga penting untuk perlindungan data TI.

Lingkungan Cadangan dan HA Cluster Tidak Saling Eksklusif

Sementara cadangan, replikasi, dan failover semuanya penting, ada perbedaan utama di antara mereka yang perlu dipahami untuk memastikan mereka diterapkan dengan benar.

Misalnya, saat Anda dapat menggunakan replikasi untuk mempertahankan salinan data yang terus-menerus diperbarui, tanpa mempertimbangkannya di lingkungan perlindungan data yang lebih besar, Anda juga akan menyalin data masalah (seperti data yang terinfeksi virus).

Dalam kasus seperti itu, cadangan sangat penting untuk mengembalikan data ke poin baik terakhir yang diketahui. Dengan melakukan replikasi, Anda dapat mengakses gambar yang direplikasi segera sebelum kegagalan sistem (= RTO / RTO lebih unggul) dengan cara yang hanya menyimpan data berdasarkan generasi dan mendukungnya dalam model tipe eDiscovery tidak bisa.

Oleh karena itu, SIOS Protection Suite mencakup perangkat lunak pengelompokan SIOS LifeKeeper dan perangkat lunak replikasi DataKeeper. SIOS LifeKeeper adalah produk cluster failover HA yang memantau kesehatan aplikasi dan mengatur failover aplikasi dan DataKeeper adalah perangkat lunak replikasi penyimpanan berbasis blok. Namun, hanya karena itu adalah cluster HA tidak berarti cadangan tidak diperlukan. Pertimbangkan tindakan pencegahan dan poin yang perlu diperhatikan saat mencadangkan di lingkungan HA cluster menggunakan SIOS Protection Suite.

Lima Poin Cadangan di Lingkungan Clustering Ketersediaan Tinggi

Pertimbangkan lima poin berikut sebagai target perolehan cadangan:

  1. Sistem Operasi (OS)
  2. SIOS Protection Suite – Program Clustering Software LifeKeeper / DataKeeper
  3. SIOS Protection Suite – informasi konfigurasi LifeKeeper / DataKeeper
  4. Program aplikasi (mis., SQL Server, SAP S / 4 HANA, Oracle, PostgreSQL, dll.)
  5. Data aplikasi

Cadangkan OS

Untuk mencadangkan OS, biasanya digunakan utilitas OS standar atau perangkat lunak cadangan pihak ketiga. Namun, karena tidak ada pertimbangan khusus untuk lingkungan ketersediaan tinggi, kami tidak akan membahasnya di sini.

Cadangkan Perangkat Lunak Clustering SIOS Protection Suite

SIOS Protection Suite termasuk program SIOS LifeKeeper / DataKeeper juga dapat diperoleh dengan utilitas standar OS atau perangkat lunak cadangan pihak ketiga, tetapi jika program menghilang karena kegagalan disk, dll. tanpa sengaja mencadangkannya, Anda perlu menginstalnya kembali. Mungkin akan ada beberapa orang yang berpikir tentang dikotomi melakukannya.

Cadangkan Informasi Konfigurasi SIOS Protection Suite

SIOS LifeKeeper hadir dengan perintah sederhana bernama lkbackup yang memungkinkan Anda membuat cadangan informasi konfigurasi. lkbackup dapat dijalankan pada SIOS LifeKeeper dan sumber daya terkait dan tidak akan memengaruhi layanan yang berjalan.

Perintah ini dapat dieksekusi dalam tiga kasus utama berikut.

  • Segera setelah menginstal sumber daya SIOS LifeKeeper yang baru dibuat
  • Sebelum dan sesudah mengubah konfigurasi SIOS LifeKeeper (menambah / mengubah dependensi, menambah / menghapus sumber daya)
  • Sebelum dan sesudah pemutakhiran versi SIOS LifeKeeper

Jika Anda mencadangkan informasi konfigurasi dengan lkbackup, bahkan jika informasi konfigurasi hilang karena kegagalan disk atau jika informasi konfigurasi rusak karena kesalahan operasi, dll.) Anda dapat dengan cepat kembali ke keadaan operasional semula.

Program Operasional Cadangan

Meskipun mencadangkan program operasi mengacu pada mencadangkan aplikasi bisnis yang dilindungi di HA cluster Anda, dimungkinkan untuk membuat dan memulihkan gambar cadangan menggunakan utilitas standar OS atau perangkat lunak cadangan pihak ketiga seperti pada 1. dan 2 di atas.

Cadangkan Data Aplikasi Bisnis

Di lingkungan HA cluster, penyimpanan bersama yang dapat diakses oleh server aktif dan siaga disediakan. Selama operasi normal, penyimpanan bersama digunakan oleh node cluster aktif. Data aplikasi (misalnya, data basis data) biasanya penyimpanan dalam penyimpanan bersama ini, tetapi poin-poin berikut harus diingat ketika membuat cadangan penyimpanan ini.

Untuk konfigurasi penyimpanan bersama 

Saat memperoleh cadangan data yang terletak di konfigurasi kluster SANless dengan penyimpanan yang dibagikan oleh node kluster aktif dan sistem siaga, data hanya dapat diakses dari sistem aktif (sistem siaga tidak dapat mengakses data). Akibatnya, cadangannya juga aktif. Dalam hal ini, pastikan bahwa ada kekuatan pemrosesan yang cukup untuk menangani skenario failover dan cadangan pemulihan.

Untuk konfigurasi penyimpanan bersama

 

Untuk konfigurasi replikasi data 

Dalam hal konfigurasi replikasi data, cadangan dari sistem operasi adalah dasar, tetapi dengan menghentikan sementara mirroring dan melepaskan kunci, cadangan juga dapat dieksekusi di sisi sistem siaga. Namun, dalam hal ini, data sementara tidak sinkron.

Untuk konfigurasi replikasi data

Mencadangkan simpul cluster dari server cadangan eksternal

Untuk melakukan cadangan node cluster dari server backup eksternal, gunakan alamat IP virtual atau nyata dari node cluster. Poin yang perlu diperhatikan dalam setiap kasus adalah sebagai berikut.

Mencadangkan menggunakan alamat IP virtual node cluster

Dari perspektif server cadangan, cadangan dieksekusi ke node yang ditunjukkan oleh alamat IP virtual LifeKeeper. Dalam hal ini, server cadangan tidak perlu mengetahui simpul mana yang merupakan simpul aktif.

Mencadangkan menggunakan alamat IP virtual node cluster

Mencadangkan menggunakan alamat IP asli dari node cluster

Dari perspektif server cadangan, cadangan dilakukan ke alamat IP asli tanpa menggunakan alamat IP virtual LifeKeeper. Karena penyimpanan bersama tidak dapat diakses dari node cluster siaga, server cadangan dan klien harus memeriksa node mana yang merupakan node aktif.

Menggabungkan cadangan, replikasi, dan failover clustering dalam cadangan konfigurasi yang teruji dan diverifikasi sangat diperlukan. Menggunakan melakukan verifikasi operasi yang memadai terlebih dahulu di sisi pengguna.

Direproduksi dengan izin dari SIOS

Filed Under: Cluster server penyederhanaan Tagged With: replikasi

Maksimalkan kinerja replikasi untuk Linux Clustering dengan Fusion-io

November 27, 2018 by Jason Aw Leave a Comment

Maksimalkan kinerja replikasi untuk Linux Clustering dengan Fusion-io

Tips Untuk Memaksimalkan Kinerja Replikasi Untuk Linux Clustering Dengan Fusion-io

Ketika kebanyakan orang berpikir tentang menyiapkan klaster, biasanya melibatkan dua atau lebih server, dan SAN – atau beberapa jenis penyimpanan bersama lainnya. SAN biasanya sangat mahal dan rumit untuk disiapkan dan dikelola. Juga, mereka secara teknis mewakili Potensi Titik Gagal (SPOF) potensial dalam arsitektur cluster Anda. Saat ini, semakin banyak orang yang beralih ke perusahaan seperti Fusion-io, dengan ioDrives yang cepat, untuk mempercepat aplikasi penting.  Perangkat penyimpanan ini ada di dalam server (yaitu "disk yang dibagikan"). Oleh karena itu tidak dapat digunakan sebagai disk klaster dengan banyak solusi pengelompokan tradisional. Untungnya, ada cara untuk Memaksimalkan kinerja replikasi untuk Linux Clustering dengan Fusion-io. Solusi yang memungkinkan Anda untuk membentuk kluster failover ketika tidak ada penyimpanan bersama yang terlibat – yaitu klaster "berbagi apa-apa".

Cluster Tradisional Maksimalkan kinerja replikasi untuk Linux Clustering dengan Fusion-io - Cluster Tradisional  Cluster "Dibagikan Tidak Ada"Maksimalkan kinerja replikasi untuk Linux Clustering dengan Fusion-io - Shared-Nothing Cluster

Ketika memanfaatkan replikasi data sebagai bagian dari konfigurasi kluster, penting bahwa Anda memiliki cukup bandwidth sehingga data dapat direplikasi di seluruh jaringan secepat yang ditulis ke disk.  Berikut ini adalah kiat penyetelan yang memungkinkan Anda untuk memanfaatkan konfigurasi klaster "bersama apa-apa", ketika penyimpanan berkecepatan tinggi dilibatkan:

Jaringan

  • Gunakan NIC 10Gbps: Perangkat penyimpanan berbasis flash dari Fusion-io (atau produk serupa lainnya dari OCZ, LSI, dll.) Mampu menulis data dengan kecepatan di HUNDREDS (750) MB / detik atau lebih.  NIC 1Gbps hanya dapat mendorong maksimum teoritis ~ 125 MB / detik, sehingga siapa pun yang memanfaatkan potensi ioDrive dapat dengan mudah menulis data lebih cepat daripada yang dapat didorong melalui koneksi jaringan 1 Gbps.  Untuk memastikan bahwa Anda memiliki bandwidth yang cukup antara server untuk memfasilitasi replikasi data real-time, NIC 10 Gbps harus selalu digunakan untuk membawa lalu lintas replikasi
  • Aktifkan Bingkai Jumbo: Dengan asumsi bahwa Kartu Jaringan dan Switch Anda mendukungnya, memungkinkan bingkai jumbo dapat meningkatkan throughput jaringan Anda sekaligus mengurangi siklus CPU.  Untuk mengaktifkan frame jumbo, lakukan konfigurasi berikut (contoh dari server linux RedHat / CentOS / OEL)
    • ifconfig <interface_name> mtu 9000
    • Edit / etc / sysconfig / network-scripts / ifcfg- <interface_name> file dan tambahkan "MTU = 9000" sehingga perubahan tetap ada di reboot
    • Untuk memverifikasi operasi bingkai jumbo ujung-ke-ujung, jalankan perintah ini: ping -s 8900 -M lakukan <IP-dari-server lain>
  • Ubah panjang antrian transmisi NIC:
    • / sbin / ifconfig <interface_name> txqueuelen 10000
    • Tambahkan ini ke /etc/rc.local untuk mempertahankan pengaturan di reboot

TCP / IP Tuning

  • Ubah netdev_max_backlog NIC:
    • Set "net.core.netdev_max_backlog = 100000" di /etc/sysctl.conf
  • Penyetelan TCP / IP lainnya yang telah terbukti meningkatkan kinerja replikasi:
    • Catatan: ini adalah nilai contoh dan beberapa mungkin perlu disesuaikan berdasarkan konfigurasi perangkat keras Anda
    • Edit /etc/sysctl.conf dan tambahkan parameter berikut:
      • net.core.rmem_default = 16777216
      • net.core.wmem_default = 16777216
      • net.core.rmem_max = 16777216
      • net.core.wmem_max = 16777216
      • net.ipv4.tcp_rmem = 4096 87380 16777216
      • net.ipv4.tcp_wmem = 4096 65536 16777216
      • net.ipv4.tcp_timestamps = 0
      • net.ipv4.tcp_sack = 0
      • net.core.optmem_max = 16777216
      • net.ipv4.tcp_congestion_control = htcp

Penyesuaian

Biasanya Anda juga perlu melakukan penyesuaian pada konfigurasi kluster Anda, yang akan bervariasi berdasarkan teknologi pengelompokan dan replikasi yang Anda putuskan untuk diterapkan.  Dalam contoh ini, saya menggunakan SteelEye Protection Suite untuk Linux (alias SPS, alias LifeKeeper), dari SIOS Technologies. Ini memungkinkan pengguna untuk membentuk cluster failover memanfaatkan hampir semua jenis penyimpanan back-end: Fibre Channel SAN, iSCSI, NAS, atau, yang paling relevan dengan artikel ini, disk lokal yang perlu disinkronkan / direplikasi secara real time antara node cluster.  SPS untuk Linux termasuk terintegrasi, fungsi replikasi data tingkat blok yang membuatnya sangat mudah untuk men-setup cluster ketika tidak ada penyimpanan bersama yang terlibat.

Rekomendasi

Untuk Memaksimalkan kinerja replikasi untuk Linux Clustering dengan Fusion-io, mari coba ini. SteelEye Protection Suite (SPS) untuk rekomendasi konfigurasi Linux:

  • Alokasikan partisi disk kecil (~ 100 MB), yang terletak di drive Fusion-io untuk menempatkan file bitmap.  Buat filesystem di partisi ini dan pasang, misalnya, di / bitmap:
    • # mount | grep / bitmap
    • / dev / fioa1 pada / bitmap type ext3 (rw)
  • Sebelum membuat mirror Anda, sesuaikan parameter berikut di / etc / default / LifeKeeper
    • Sisipkan: LKDR_CHUNK_SIZE = 4096
      • Nilai default adalah 64
    • Edit: LKDR_SPEED_LIMIT = 1500000
      • (Nilai default adalah 50000)
      • LKDR_SPEED_LIMIT menentukan bandwidth maksimum yang akan dilakukan ulang oleh resync – ini harus diatur cukup tinggi untuk memungkinkan resyncs berjalan pada kecepatan maksimum yang mungkin
    • Edit: LKDR_SPEED_LIMIT_MIN = 200000
      • (Nilai default adalah 20000)
      • LKDR_SPEED_LIMIT_MIN menentukan seberapa cepat resync harus dibiarkan pergi ketika ada I / O lain terjadi pada saat yang sama – sebagai aturan praktis, ini harus diset ke setengah atau kurang dari throughput tulis maksimum drive untuk menghindari kelaparan keluar aktivitas I / O normal ketika resync terjadi

Dari sini, lanjutkan dan buat mirror Anda dan konfigurasikan kluster seperti biasa. Tertarik untuk Memaksimalkan Kinerja Replikasi Untuk Linux Clustering Dengan Fusion-io, lihat apa lagi yang dapat ditawarkan SIOS. Direproduksi dengan izin dari LinuxClustering

Filed Under: Cluster server penyederhanaan, Datakeeper Tagged With: Fusion-io, Linux, memaksimalkan kinerja replikasi untuk pengelompokan linux dengan fusion io, replikasi

Cloud Witness Untuk Membangun Multi-Instance SQL Server Failover Cluster Di Azure

September 10, 2018 by Jason Aw Leave a Comment

Fitur Azure ILB Baru Memungkinkan Anda Untuk Membangun Multi-Instance SQL Server Failover Cluster Di Azure

Fitur Azure ILB Baru Memungkinkan Anda Untuk Membangun Multi-Instance SQL Server Failover Cluster Di Azure

Fitur baru, Cloud Witness adalah favorit saya saat ini. Sebelum kami melihat fitur kuorum baru di Windows Server 2016, saya pikir penting untuk mengetahui dari mana kami berasal. Dalam posting saya sebelumnya Memahami Kuorum Kluster Failover Windows Server di Windows Server 2012 R2 Saya membahas beberapa detail besar mengenai sejarah dan evolusi kuorum klaster. Saya sarankan Anda meninjau posting itu untuk memahami bagaimana kuorum bekerja di Windows Server 2012 R2. Juga, bagaimana fitur-fitur baru dari Windows Server 2016 akan membuat penyebaran klaster Anda bahkan lebih tangguh.

Cloud Witness

Cloud Witness memungkinkan Anda memanfaatkan Penyimpanan Azure Blob untuk bertindak sebagai saksi bagi kluster Anda. Saksi ini akan menjadi saksi Disk Witness atau File Share Witness. Konfigurasi Cloud Witness sangat mudah. Dari pengalaman saya biaya hampir tidak ada untuk menjadi tuan rumah di Azure. Satu-satunya downside adalah bahwa node cluster perlu dapat berkomunikasi melalui internet dengan Storage Azure Blob Anda. Sangat sering node klaster dilarang untuk berkomunikasi ke internet publik. Jadi Anda perlu berkoordinasi dengan tim keamanan Anda jika Anda ingin mengaktifkan Cloud Witness. Ada banyak alasan kuat untuk menggunakan Cloud Witness untuk membangun Multi-Instance SQL Server Failover Cluster In Azure. Tapi bagi saya itu sangat masuk akal dalam tiga lingkungan yang sangat spesifik: Failover Cluster di Azure, Cabang Kantor Cluster, dan Cluster Multisite.

Pada Pandangan Lebih Dekat

Mari kita lihat masing-masing skenario ini untuk melihat bagaimana seorang Cloud Witness dapat membantu. Gambar 1 – Ketika Anda mencoba untuk membangun Multi-Instance SQL Server Failover Cluster Di Azure, akun penyimpanan saksi cloud harus selalu dikonfigurasi Lokal Redundant Storage (LRS) [/ caption]

Penyebaran yang Sangat Tersedia

Jika Anda pindah ke Azure (atau benar-benar penyedia cloud apa pun), Anda akan ingin memastikan penyebaran Anda sangat tersedia. Jika Anda mengambil tentang SQL Server, File Server, SAP atau beban kerja lainnya yang secara tradisional bergerombol dengan Windows Server Failover Clustering, Anda harus menggunakan File Share Witness atau Cloud Witness, karena Disk Witness tidak mungkin di Azure. Dengan Windows Server 2012 R2 atau Windows Server 2008 R2, Anda harus menggunakan File Share Witness. Windows Server 2016 memungkinkan untuk menggunakan Cloud Witness. Keuntungan dari Cloud Witness adalah Anda tidak perlu mempertahankan instance Windows lainnya di Azure untuk menghosting File Share. Sebaliknya, Microsoft memungkinkan Anda untuk memanfaatkan Blob Storage.  Ini memberi Anda solusi yang lebih murah, yang jauh lebih mudah dikelola, dan lebih tangguh.

Lokasi

Ketika melihat penyebaran cluster di kantor cabang, biaya dan pemeliharaan selalu menjadi pertimbangan. Untuk jaringan ritel dengan ratusan atau ribuan lokasi, memiliki SAN di setiap lokasi dapat menjadi penghalang biaya. Setiap lokasi mungkin untuk menjalankan dua node Hyper-V cluster pada konfigurasi S2-Hyper-converged atau solusi replikasi pihak ke-3 untuk meng-host sejumlah mesin virtual. Sekarang yang dilakukan Cloud Witness adalah membantu bisnis menghindari biaya penambahan server fisik tambahan di setiap lokasi untuk bertindak sebagai File Share Witness atau biaya penambahan SAN ke setiap lokasi.

Menghilangkan Kebutuhan Akan Pusat Data Ketiga

Dan akhirnya, ketika menggelar cluster multisite, Cloud Witness menghilangkan kebutuhan untuk pusat data ke-3 untuk menjadi tuan rumah File Share Witness. Sebelum pengenalan Cloud Witness, praktik terbaik akan menentukan bahwa Saksi Berbagi Berkas berada di lokasi ketiga. Akses ke pusat data ke-3 hanya untuk menghosting saksi berbagi file tidak selalu layak dan tentu saja memperkenalkan lapisan kompleksitas lain. Dengan menggunakan Cloud Witness Anda menghilangkan kebutuhan untuk mempertahankan lokasi ketiga dan akses ke saksi dilakukan melalui internet publik, meminimalkan persyaratan jaringan juga.

Kesadaran Situs

Ketika membangun klaster multisite, selalu ada masalah umum lainnya. Mengontrol failover untuk selalu memilih situs lokal tidak mungkin dilakukan. Meskipun Anda dapat menentukan Pemilik Pilihan, pengaturan Pemilik Pilihan umumnya salah dimengerti. Administrator mungkin tidak menyadari hal ini. Tetapi tahukah Anda bahwa meskipun mereka tidak mencantumkan server sebagai Pemilik Pilihan, server secara otomatis ditambahkan ke bagian akhir daftar Pemilik Pilihan yang dikelola oleh kluster. Hasil dari kesalahpahaman ini adalah bahwa meskipun Anda mungkin hanya mendaftarkan server lokal sebagai Pemilik Pilihan, Anda berpotensi memiliki failover sumber gugus ke situs DR. Dan ini bahkan ketika ada node yang sangat baik yang tersedia di situs lokal. Tentunya ini bukan apa yang Anda harapkan dan gunakan Kesadaran Situs akan menghilangkan masalah ini bergerak maju. Kesadaran Situs memperbaiki masalah ini dengan selalu lebih memilih situs lokal ketika memutuskan node mana yang akan online. Jadi dalam keadaan normal beban kerja yang berkelompok akan selalu failover ke simpul lokal kecuali Anda memiliki situs lengkap pemadaman. Dalam hal mana salah satu DR node akan datang online. Hal yang sama berlaku saat Anda menjalankan di situs DR. Cluster akan memulihkan beban kerja pada server di situs DR jika sebelumnya berjalan pada node di situs DR. Kesadaran Situs akan selalu lebih memilih simpul lokal.

Domain Kesalahan

Membangun berdasarkan kesadaran situs adalah Domain Kesalahan. Fault Domains melangkah lebih jauh dan memungkinkan Anda menentukan lokasi Node, Chasse, dan Rack selain Situs. Domain Fault memiliki tiga manfaat: Penyimpanan Affinity dalam Cluster Stretch, meningkatkan ketahanan Storage Spaces. Ini meningkatkan peringatan Layanan Kesehatan dengan memasukkan data meta tentang lokasi sumber daya terkait yang meningkatkan alarm. Penyimpanan Afinitas akan membantu memastikan bahwa beban kerja dan penyimpanan gugus Anda berjalan di lokasi yang sama. Anda tentu tidak ingin membaca dan menulis data VM Anda yang ada di CSV di kota yang berbeda. Namun, saya pikir pemenang terbesar di sini adalah skenario Storage Spaces Direct (S2D). SD2 akan memanfaatkan informasi yang Anda berikan tentang lokasi node klaster Anda (Situs, Rak, Chassis) untuk memastikan bahwa beberapa salinan data yang ditulis untuk redundansi semua tinggal di Domain Kesalahan yang berbeda. Ini membantu memastikan bahwa penempatan data dioptimalkan sehingga kegagalan Node, Chassis, Rak, atau Situs tunggal tidak menurunkan seluruh penempatan S2D Anda.  Cosmos Darwin memiliki video yang luar biasa di Saluran 9 yang menjelaskan konsep ini dengan sangat terperinci.

Ringkasan

Windows Server 2016 menambahkan beberapa perangkat tambahan baru ke kuorum klaster yang akan memberikan beberapa manfaat langsung ke penyebaran klaster Anda. Selain itu, periksa beberapa peningkatan klaster baru lainnya seperti peningkatan sistem rolling, Ketahanan Virtual Machine, Workgroup dan Multi-Domain Cluster dan lain-lain. Untuk membaca tentang tips lain seperti membangun Multi-Instance SQL Server Failover Cluster Di Azure dengan Cloud Witness, baca di posting kami. Direproduksi dengan izin dari Clusteringformeremortals.com

Filed Under: Cluster server penyederhanaan Tagged With: Cloud Witness, Keseimbangan muatan, Manajer Konfigurasi Pusat Sistem, Manajer Sumber Daya Azure, multi instance sql server failover cluster dalam biru, Penyebaran, PowerShell, replikasi, Windows Server 2012

SIOS Replikasi Data Dan Solusi Pemulihan Bencana Untuk Perlindungan Data

Mei 27, 2018 by Jason Aw Leave a Comment

SIOS Replikasi Data Dan Solusi Pemulihan Bencana Untuk Perlindungan Data

Perusahaan Perangkat Lunak yang Melayani Lembaga Pendidikan Menggunakan Replikasi Data Biaya-Efektif SIOS Dan Solusi Pemulihan Bencana Untuk Perlindungan Data Berkelanjutan

Windows Server 2008 R2 yang banyak diantisipasi menjadi tersedia pada akhir Oktober. VISUCATE menjadi salah satu dari banyak usaha kecil untuk menyebarkan Microsoft Hyper-V dan menikmati fitur barunya seperti migrasi langsung. Perusahaan membutuhkan replikasi data dan solusi pemulihan bencana. Salah satu yang cukup murah dan memberikan perlindungan kelas satu.

Dalam upaya untuk menyelesaikan pengaturannya, VISUCATE menginginkan platform kesinambungan bisnis yang memenuhi harapan bisnisnya yang kecil. Mereka memanfaatkan fitur ketersediaan tinggi dari Windows Server Failover Clustering. Namun, 5fhbvd VISUCATE membutuhkan jaminan tambahan bahwa hilangnya data penting atau downtime tidak akan mengganggu penjualan perangkat lunaknya. Untuk mengatasi hambatan replikasi data spesifik ini, VISUCATE beralih ke SIOS DataKeeper Cluster Edition.

Tantangan

Mereka membutuhkan solusi replikasi data dan pemulihan bencana yang terjangkau, tidak rumit dan kuat untuk melindungi seting Hyper-V yang baru. Untuk mencegah downtime, perusahaan membutuhkan servernya untuk mereplikasi dan mempertahankan kemampuan operasional mereka. Jika satu server gagal, server lain dikonfigurasi untuk mengambil alih untuk mempertahankan operasi, memaksimalkan waktu kerja dan menjamin produktivitas pengguna. Solusi bersama dari Microsoft Hyper-V dengan Windows Server Failover Clustering dan SIOS DataKeeper Cluster Edition memenuhi persyaratan bisnis penting untuk VISUCATE serta setiap organisasi yang berniat untuk mengatasi tantangan ini.

VISUCATE Mempertahankan Ketersediaan Hyper-V, Keberlangsungan Bisnis dengan SIOS DataKeeper®

VISUCATE menggunakan Windows Server 2008 R2 pada dua server fisik dengan peran Hyper-V diaktifkan. Perusahaan menggunakan Windows Server Failover Clustering dan SIOS DataKeeper Cluster Edition untuk menyediakan replikasi dan failover dari mesin virtual. Dengan penyebaran Hyper-V, lima mesin virtual VISUCATE dipasang di kedua server. Tiga dalam satu server dan dua di server lain.

Dengan menjaga mesin virtual Windows Server 2008 Hyper-V yang tersinkronisasi antara dua server fisik, SIOS DataKeeper memungkinkan pemulihan bencana tanpa pemulihan dan downtime yang biasanya terkait dengan teknologi back-up dan pemulihan tradisional. Replikasi terus-menerus secara terus-menerus dari mesin virtual Windows Server 2008 Hyper-V yang aktif memastikan bahwa dalam hal terjadi downtime yang berdampak pada VISUCATE set-up, mesin virtual yang direplikasi dapat secara otomatis dibawa ke layanan dengan kehilangan data minimal atau tidak ada sama sekali. VISUCATE mempertimbangkan beberapa opsi untuk solusi failover cluster. Perusahaan menolak opsi untuk membuat kluster dengan server lowcost SAN atau NAS / file. Jika SAN dalam konfigurasi itu gagal, seluruh pengaturan akan gagal.

SIOS DataKeeper Cluster Edition mengurangi biaya penggelaran kluster dengan menghilangkan kebutuhan akan SAN. Ini juga meningkatkan ketersediaan mesin virtual dan aplikasi dengan menghilangkan titik tunggal kegagalan yang mewakili SAN dalam kelompok penyimpanan bersama tradisional.

Manfaat

SIOS DataKeeper Cluster Edition memungkinkan perusahaan seperti VISUCATE untuk membangun "shared-nothing" dan secara geografis menyebarkan Windows Server 2008 Hyper-V cluster. Dengan menghilangkan persyaratan penyimpanan bersama, perusahaan dapat melindungi baik downtime terencana maupun tidak terencana untuk server dan penyimpanan. Juga, penggunaan SIOS DataKeeper dengan mesin virtual Windows Server 2008 Hyper-V memungkinkan untuk pengujian pemulihan bencana yang tidak mengganggu. Dengan hanya mengakses mesin virtual yang direplikasi di situs pemulihan bencana, VISUCATE dan perusahaan lain dapat menyegmentasikan jaringan virtual yang terpisah dari jaringan produksi. Juga, itu akan dapat memulai mesin virtual yang direplikasi untuk pengujian pemulihan bencana. Administrator dapat melakukan replikasi data yang lengkap dan pengujian solusi pemulihan bencana tanpa mempengaruhi situs produksi.

Selain dukungan untuk gugus Hyper-V, SIOS DataKeeper Cluster Edition memungkinkan kluster multi-situs untuk semua jenis sumber daya klaster Microsoft lainnya. Ini termasuk SQL Server, Exchange, File / Print dan DHCP.

Untuk mengetahui lebih lanjut tentang produk SIOS, buka di sini
Untuk membaca tentang bagaimana SIOS membantu VISUCATE mencapai replikasi data dan solusi pemulihan bencana, buka di sini

Filed Under: Kisah sukses Tagged With: replikasi, replikasi data dan solusi pemulihan bencana, solusi pemulihan bencana

Tulisan Terbaru

  • Mengapa Strategi Manajemen Patch yang Efektif Sangat Penting untuk Ketahanan TI
  • Mengapa Strategi Manajemen Patch yang Efektif Sangat Penting untuk Ketahanan TI
  • Memperlancar Komunikasi Eksternal untuk Prosedur Darurat
  • Menghindari Bencana yang Tidak Anda Duga Datang: Membangun Rencana DR yang Tangguh
  • Strategi Peningkatan Bergulir Terbaik untuk Meningkatkan Kelangsungan Bisnis

Posting Terpopuler

Bergabunglah dengan Milis Kami

Copyright © 2025 · Enterprise Pro Theme on Genesis Framework · WordPress · Log in