SIOS SANless clusters

SIOS SANless clusters High-availability Machine Learning monitoring

  • Home
  • 产品
    • SIOS DataKeeper for Windows
    • SIOS Protection Suite for Linux
  • 新闻与活动
  • 服务器集群简单化
  • 成功案例
  • 联系我们
  • English
  • 中文 (中国)
  • 中文 (台灣)
  • 한국어
  • Bahasa Indonesia
  • ไทย

如何创建没有共享存储的双节点MySQL集群 – 第1部分

11月 29, 2018 by Jason Aw Leave a Comment

创建一个没有共享存储的双节点MySQL集群

循序渐进:如何创建没有共享存储的双节点MySQL群集,第1部分

运行MySQL集群的主要优势显然是高可用性(HA)。要从这种类型的解决方案中获得最大收益,您需要尽可能消除尽可能多的潜在单点故障。传统观点认为,如果没有某种类型的共享存储,您无法形成集群,这在技术上代表了集群架构中的单点故障。但是,有解决方案。适用于Linux的SteelEye Protection Suite(SPS)允许您通过在群集节点之间提供实时数据复制来将存储作为单点故障排除。让我们看一个典型的场景:您构建一个利用本地复制存储来保护MySQL数据库的集群。

为了创建一个没有共享存储的2节点MySQL群集,我们假设您正在实验室环境中使用SPS的评估副本。我们还假设您已确认主服务器和辅助服务器以及网络都满足运行此类设置的要求。(您可以在SIOS SteelEye Protection Suite for Linux MySQL with Data Replication Evaluation Guide中找到这些要求的详细信息。)

创建没有共享存储的双节点MySQL群集的第一步

在开始设置群集之前,您需要配置存储。要复制的数据需要驻留在单独的文件系统或逻辑卷上。请记住,目标磁盘的大小,无论是使用分区还是逻辑卷,都必须等于或大于源。在此示例中,我们假设您正在使用磁盘分区。(但是,LVM也完全受支持。)首先,对本地存储进行分区以与SteelEye DataKeeper一起使用。在主服务器上,标识要用作MySQL存储库的空闲未使用磁盘分区或创建新分区。使用fdisk实用程序对磁盘进行分区,然后格式化分区并将其临时安装在/ mnt。将/ var / lib / mysql /中的任何现有数据移动到此新磁盘分区中(假设默认的MySQL配置)。卸载然后重新安装/ var / lib / mysql中的分区。您不需要将此分区添加到/ etc / fstab,因为它将由SPS自动挂载。在辅助服务器上,像在主服务器上一样配置磁盘。

安装MSQL

接下来你将处理MySQL。在主服务器上,安装mysql和mysql-server RPM软件包(如果系统上尚不存在)并应用任何必需的依赖项。验证您的本地磁盘分区是否仍安装在/ var / lib / mysql中。如有必要,请初始化一个示例MySQL数据库。确保MySQL数据目录(/ var / lib / mysql)中的所有文件都具有正确的权限和所有权,然后从命令行手动启动MySQL守护程序。(注意:不要通过service命令或/etc/init.d/脚本启动MySQL。)连接mysql客户端以验证MySQL是否正在运行。更新并验证MySQL配置的root密码。然后创建一个MySQL配置文件,例如此处显示的示例文件:—- #cat /var/lib/mysql/my.cnf [mysqld] datadir = / var / lib / mysql socket = / var / lib / mysql /mysql.sock pid-file = / var / lib / mysql / mysqld.pid user = root port = 3306#默认使用旧密码格式与mysql 3.x#clients(使用mysqlclient10兼容包的那些)兼容。old_passwords = 1#建议禁用符号链接以防止出现各种安全风险; #这样做,取消注释这一行:#symbolic-links = 0 [mysqld_safe] log-error = / var / log / mysqld.log pid-file = / var / run / mysqld / mysqld.pid [client] user = root password = SteelEye —-在本例中,我们将此文件放在稍后要复制的同一目录中(/var/lib/mysql/my.cnf)。删除原始MySQL配置文件(在/ etc中)。在辅助服务器上,如有必要,安装mysql和mysql-server RPM软件包,应用所有依赖项,并确保MySQL数据目录(/ var / lib / mysql)中的所有文件都具有正确的权限和所有权。

安装SPS for Linux

接下来,安装SPS for Linux。为了便于安装,SIOS为SPS for Linux提供了统一的安装脚本(称为“设置”)。有关如何获取此软件的说明,请参阅SPS for Linux评估许可证密钥附带的电子邮件。在主服务器和辅助服务器上下载软件和评估许可证密钥。在每台服务器上,运行安装程序脚本,该脚本将安装少量必备RPM,核心群集软件以及所需的任何可选ARK。在这种情况下,您需要安装MySQL ARK(steeleye-lkSQL)和DataKeeper(即数据复制)ARK(steeleye-lkDR)。通过/ opt / LifeKeeper / bin / lkkeyins命令应用许可证密钥,并通过其启动脚本/ opt / LifeKeeper / lkstart启动SPS for Linux。此时,您已在两个节点上安装,许可和运行SPS,并且已配置要保护的磁盘和MySQL数据库。在下一篇文章中,我们将查看无共享群集过程中的其余步骤:创建以下内容

  • 主服务器和目标服务器之间的通信(Comm)路径,即心跳
  • 一个IP资源
  • 镜像和启动数据复制
  • MySQL数据库资源
  • MySQL IP地址依赖

有兴趣了解如何为您的项目创建没有共享存储的双节点MySQL群集,与我们聊天或阅读我们的成功案例。经Linuxclustering许可转载

Filed Under: 服务器集群简单化

VMware High Availability的故障转移群集完美匹配?

11月 28, 2018 by Jason Aw Leave a Comment

具有VMware高可用性的故障转移群集

VMware High Availability的故障转移群集:过度杀伤还是完美匹配?

在VMware层实现高可用性(HA)是一种有用的解决方案。它有助于防止某些类型的故障。但是,仅VMware VMware并不能涵盖所有基础。让我们探讨使用VMware High Availability进行故障转移群集的可能性。

据Gartner Research称,大多数计划外中断都是由应用程序故障(40%的中断)或管理员错误(40%)引起的。硬件,网络,电源或环境问题导致其余问题(总计20%)。VMware HA专注于防止硬件故障,但是一个好的应用程序集群解决方案可以解决其他方面的问题。

拥有良好的策略对于VMware High Availability的故障转移群集至关重要

在为VMware环境构建适当的HA策略时,需要考虑以下几点。VMware High Availability的故障转移群集完美匹配?

通过应用程序级监视和群集缩短中断

恢复速度怎么样?在完美的世界中,不会出现故障,停电或停机。但是,如果确实发生意外中断,那么下一个最好的事情就是快速启动并再次运行。此等式表示您的环境的总体可用性:如您所见,检测时间是等式中的关键部分。这是VMware HA独自完成的另一个地方。VMware HA将每个虚拟机(VM)视为“黑匣子”,并且无法真正了解内部运行的应用程序的运行状况或状态。内部运行的VM和OS可能很好,但应用程序可能会停止,挂起或配置错误,从而导致用户中断。即使主机服务器出现故障,您也必须等待VMware HA重新启动VMware群集中其他主机上受影响的VM。这意味着在这些VM上运行的应用程序一直关闭,直到1)检测到中断,2)操作系统在新主机系统上完全启动,3)应用程序重新启动,以及4)用户重新连接到应用程序。通过在多个VM之间的应用程序层进行群集,您不仅可以防止应用程序级中断,还可以缩短中断恢复时间。可以简单地在备用VM上重新启动应用程序,该VM已经启动并等待接管。为了最大化可用性,所涉及的VM应位于不同的物理服务器上。 或者更好的是,单独的VMware HA集群甚至是单独的数据中心!

消除存储作为潜在的单点故障(SPOF)

传统的群集解决方案(包括VMware HA)需要共享存储,并且通常仅在单个数据中心内保护应用程序或服务。从技术上讲,共享存储设备代表了架构中的SPOF。如果您无法访问后端存储,则群集和应用程序将停止计数。任何HA解决方案的目标都是通过消除尽可能多的潜在SPOF来提高整体可用性。那么如何扩充本机VMware HA集群以提供更高级别的可用性?要保护整个堆栈,从硬件到应用程序,请从VMware HA开始。接下来,您需要一种监视和保护应用程序的方法。在应用程序级别(即在VM内)进行聚类是自然的选择。请务必选择支持基于主机的数据复制的群集解决方案(即无共享配置),这样您就不需要经历设置基于SAN的复制的费用和复杂性。SAN复制解决方案通常还会将您锁定在单个存储供应商中。最重要的是,要使用共享存储来群集VM,通常需要启用裸设备映射(RDM)。这意味着您将无法访问许多功能强大的VMware功能,例如vMotion。采用无共享群集配置将存储层消除为SPOF。同时允许您使用vMotion在物理主机之间迁移VM。这是双赢的!无共享群集也是灾难恢复的绝佳解决方案,因为备用VM可以驻留在不同的数据中心。

覆盖所有的基础 

通过VMware HA分层的应用程序故障转移群集提供了两全其美的优势。您可以享受内置的硬件保护和应用程序感知,更高的灵活性和可扩展性,以及更快的恢复时间。更好的是,解决方案不需要打破银行。想了解VMware High Availability的故障转移群集如何适用于您的项目?使用SIOS办理登机手续。经LinuxClustering许可转载

Filed Under: 服务器集群简单化

使用Fusion-io最大化Linux群集的复制性能

11月 27, 2018 by Jason Aw Leave a Comment

使用Fusion-io最大化Linux群集的复制性能

使用Fusion-io最大化Linux群集的复制性能的技巧

当大多数人考虑设置群集时,它通常涉及两个或更多服务器,以及SAN或其他类型的共享存储。SAN的设置和维护通常非常昂贵且复杂。此外,它们在技术上代表了集群架构中潜在的单点故障(SPOF)。如今,越来越多的人开始使用Fusion-io这样的公司,以及他们闪电般快速的ioDrives,来加速关键应用。  这些存储设备位于服务器内(即不是“共享磁盘”)。 因此,它不能用作具有许多传统群集解决方案的群集磁盘。幸运的是,有一些方法可以最大化使用Fusion-io进行Linux群集的复制性能。 允许您在不涉及共享存储时形成故障转移群集的解决方案 – 即“无共享”群集。

传统集群 使用Fusion-io - 传统集群最大化Linux集群的复制性能  “无共享”集群使用Fusion-io - 无共享群集最大化Linux群集的复制性能

在将数据复制作为群集配置的一部分时,充足的带宽至关重要,这样才能在网络上复制数据,就像写入磁盘一样快。  以下是调优技巧,可让您在涉及高速存储时充分利用“无共享”群集配置:

网络

  • 使用10Gbps网卡:Fusion-io(或OCZ,LSI等其他类似产品)的基于闪存的存储设备能够以MB /秒或更高的百万分之一(750)的速度写入数据。  1Gbps网卡只能推动理论最大值~125 MB /秒,因此任何利用ioDrive潜力的人都可以比通过1 Gbps网络连接推送更快地写入数据。  为确保服务器之间有足够的带宽以促进实时数据复制,应始终使用10 Gbps NIC来承载复制流量
  • 启用巨型帧:假设您的网卡和交换机支持它,启用巨型帧可以大大提高网络吞吐量,同时减少CPU周期。  要启用巨型帧,请执行以下配置(例如来自RedHat / CentOS / OEL linux服务器)
    • ifconfig <interface_name> mtu 9000
    • 编辑/ etc / sysconfig / network-scripts / ifcfg- <interface_name>文件并添加“MTU = 9000”,以便在重新启动后更改仍然存在
    • 要验证端到端巨型帧操作,请运行以下命令:ping -s 8900 -M do <IP-of-other-server>
  • 更改NIC的传输队列长度:
    • / sbin / ifconfig <interface_name> txqueuelen 10000
    • 将其添加到/etc/rc.local以保留重新启动后的设置

TCP / IP调整

  • 更改NIC的netdev_max_backlog:
    • 在/etc/sysctl.conf中设置“net.core.netdev_max_backlog = 100000”
  • 已显示可提高复制性能的其他TCP / IP调整:
    • 注意:这些是示例值,有些可能需要根据您的硬件配置进行调整
    • 编辑/etc/sysctl.conf并添加以下参数:
      • net.core.rmem_default = 16777216
      • net.core.wmem_default = 16777216
      • net.core.rmem_max = 16777216
      • net.core.wmem_max = 16777216
      • net.ipv4.tcp_rmem = 4096 87380 16777216
      • net.ipv4.tcp_wmem = 4096 65536 16777216
      • net.ipv4.tcp_timestamps = 0
      • net.ipv4.tcp_sack = 0
      • net.core.optmem_max = 16777216
      • net.ipv4.tcp_congestion_control = HTCP

调整

通常,您还需要对群集配置进行调整,这将根据您决定实施的群集和复制技术而有所不同。  在这个例子中,我使用的是SIOS Technologies的SteelEye Protection Suite for Linux(又名SPS,又名LifeKeeper)。 它允许用户利用几乎任何后端存储类型形成故障转移群集:光纤通道SAN,iSCSI,NAS,或者与本文最相关的本地磁盘,需要在群集节点之间实时同步/复制。  SPS for Linux包括集成的块级数据复制功能,这使得在没有共享存储时很容易设置集群。

建议

为了最大化使用Fusion-io的Linux群集的复制性能,让我们试试这个。SteelEye Protection Suite(SPS)for Linux配置建议:

  • 分配位于Fusion-io驱动器上的小(~100 MB)磁盘分区以放置位图文件。  在此分区上创建一个文件系统并将其挂载,例如,在/ bitmap:
    • #mount | grep /位图
    • / dev / fioa1 on / bitmap type ext3(rw)
  • 在创建镜像之前,请在/ etc / default / LifeKeeper中调整以下参数
    • 插入:LKDR_CHUNK_SIZE = 4096
      • 默认值为64
    • 编辑:LKDR_SPEED_LIMIT = 1500000
      • (默认值为50000)
      • LKDR_SPEED_LIMIT指定重新同步将采用的最大带宽 – 应设置为足够高以允许重新同步以尽可能最大的速度运行
    • 编辑:LKDR_SPEED_LIMIT_MIN = 200000
      • (默认值为20000)
      • LKDR_SPEED_LIMIT_MIN指定当同时进行其他I / O时允许重新同步的速度 – 根据经验,这应该设置为驱动器的最大写入吞吐量的一半或更少,以避免挨饿重新同步发生时,正常的I / O活动

从这里开始,像往常一样创建镜像并配置群集。有兴趣通过Fusion-io最大化Linux群集的复制性能,请参阅SIOS可以提供的其他内容。经LinuxClustering许可转载

Filed Under: Datakeeper, 服务器集群简单化 Tagged With: Fusion-io的

在Google域名之间移动Google表单

11月 23, 2018 by Jason Aw Leave a Comment

在Google域名之间移动Google表单

在Google域名之间移动Google表单

如果您和我一样,您可能会定期使用一些不同的Google帐户。最近,我在Google域之间移动Google表单方面需要帮助。我花了相当多的时间创建Google表单。只是意识到我在使用我的个人帐户而不是我的工作帐户登录时这样做了。我真的不想重做我做过的工作。我尝试在线搜索答案,但没有具体的解决方案来解决我的情况。这并不难。我想我会把它写下来以防万一发生在你身上。我只是尝试了几件事,偶然发现了这个问题。我们假设这是一个没有数据的新表单。在Google Domains中移动Google表单时,您只需执行以下操作:

  1. 在表单上添加您的第二个Google帐户作为协作者
  2. 登录您的第二个Google帐户,打开表单并填写表单的“复制件”

在Google域名之间移动Google表单 而已!现在,您在第二个Google帐户中获得了该表单的副本。当然,如果您已经在第一个表单上收集了一些数据,则需要复制该表。 将它放在您的第二个Google帐户中,并将表单附加到该数据副本。请务必删除旧表单,以免意外使用旧表单。阅读诸如在Google Domains之间移动Google表单等提示,并获得Clusteringformeremortals的许可

Filed Under: 服务器集群简单化

使用SIOS DataKeeper接收电子邮件警报

11月 19, 2018 by Jason Aw Leave a Comment

使用SIOS Datakeeper接收电子邮件警报

使用SIOS DataKeeper接收电子邮件警报

在过去的几周里,我写了一个由3部分组成的系列文章,介绍如何根据Perfmon计数器,系统事件日志条目和特定的Windows服务启动或停止事件来配置电子邮件警报。这些指南与任何环境相关。我的所有例子都是为了监控SIOS DataKeeper。此外,它还有一些特定的客户请求,包括监控SIOS DataKeeper服务,以及在RPO超过5秒时收到警报。我还包括监视您想要了解的基本DataKeeper事件。此视频显示了一些此警报。

有兴趣了解有关SIOS DataKeeper的更多信息,请阅读我们的SIOS成功案例经Clusteringformeremortals许可转载

Filed Under: 服务器集群简单化

  • « Previous Page
  • 1
  • …
  • 69
  • 70
  • 71
  • 72
  • 73
  • …
  • 100
  • Next Page »

最近的帖子

  • 在 Nutanix 环境中选择高可用性解决方案的 10 个注意事项
  • 我的服务器是一次性的吗?高可用性软件如何融入云最佳实践
  • 灾难频发世界的数据恢复策略
  • DataKeeper 和棒球:灾难恢复的战略举措
  • SQL Server 停机风险预算

最热门的帖子

加入我们的邮件列表

Copyright © 2025 · Enterprise Pro Theme on Genesis Framework · WordPress · Log in