基于heartbeat v2 crm实现基于nfs的mysql高可用集群

前言

因heartbeat v1内置的资源管理器haresource功能比较简单,且不支持图形化管理,所以heartbeat v2不再支持haresource,转而使用更加强大的资源管理器crm进行集群管理。本文将讲解如何基于heartbeat v2 crm实现基于nfs的mysql高可用集群。

高可用实现

实验拓扑

基于heartbeat实现mysql集群高可用.jpg

实验环境

node1:172.16.10.123 mariadb-5.5.36 CentOS6.6

node2:172.16.10.124 mariadb-5.5.36 CentOS6.6

NFS:172.16.10.125 CentOS6.6

Windows环境需安装Xmanager Enterprise 5

配置过程

NFS服务器配置

1.jpg

[root@scholar ~]# vim /etc/exports

/mydata         172.16.0.0/16(rw,no_root_squash)

[root@scholar ~]# service nfs start

安装mysql

#在node1和node2上分别进行如下操作

2.jpg

[root@node1 mysql]# vim /etc/mysql/my.cnf 

datadir = /mydata/data

log-bin=/mydata/binlogs/master-bin

3.jpg

[root@node1 mysql]# scripts/mysql_install_db --user=mysql --datadir=/mydata/data/

#注意:初始化操作只在一个节点执行即可

启动服务测试一下

4.jpg

同样node2上执行以上操作后也启动测试

5.jpg

测试完成即可卸载共享目录

[root@node1 mysql]# umount /mydata/

#在两个节点分别执行

安全起见,此时可将nfs的no_root_squash选项去掉

[root@scholar ~]# vim /etc/exports 

/mydata         172.16.0.0/16(rw)

[root@scholar ~]# exportfs -arv
exporting 172.16.0.0/16:/mydata

heartbeat配置

时间同步

ntpdate

节点解析通信

[root@node1 ~]# vim /etc/hosts
 
172.16.10.123   node1.scholar.com node1
172.16.10.124   node2.scholar.com node2
 
[root@node1 ~]# vim /etc/sysconfig/network
HOSTNAME=node1.scholar.com
 
[root@node1 ~]# uname -n
node1.scholar.com
 
#两个节点都需如上操作

ssh密钥配置

[root@node1 ~]# ssh-keygen -t rsa -P ''
[root@node1 ~]# ssh-copy-id -i .ssh/id_rsa.pub root@node2
[root@node2 ~]# ssh-keygen -t rsa -P ''
[root@node2 ~]# ssh-copy-id -i .ssh/id_rsa.pub root@node1
[root@node1 ~]# date; ssh node2 'date' #测试
Mon Jun  8 16:33:36 CST 2015
Mon Jun  8 16:33:36 CST 2015

安装所需软件包

#解决依赖关系
[root@node1 ~]# yum install perl-TimeDate net-snmp-libs libnet PyXML -y #需epel源支持
[root@node1 ~]# cd heartbeat2/
[root@node1 heartbeat2]# ls
heartbeat-2.1.4-12.el6.x86_64.rpm             heartbeat-pils-2.1.4-12.el6.x86_64.rpm
heartbeat-gui-2.1.4-12.el6.x86_64.rpm         heartbeat-stonith-2.1.4-12.el6.x86_64.rpm
heartbeat-ldirectord-2.1.4-12.el6.x86_64.rpm
[root@node1 heartbeat2]# rpm -ivh heartbeat-2.1.4-12.el6.x86_64.rpm heartbeat-pils-2.1.4-
12.el6.x86_64.rpm heartbeat-stonith-2.1.4-12.el6.x86_64.rpm heartbeat-gui-2.1.4-12.el6.x8
6_64.rpm

#两个节点都执行以上操作

准备配置文件

[root@node1 ~]# cp /usr/share/doc/heartbeat-2.1.4/{ha.cf,authkeys} /etc/ha.d
[root@node1 ~]# chmod 600 /etc/ha.d/authkeys

配置算法密钥

[root@node1 ~]# openssl rand -hex 8
4d8fd6cb49d2047b
[root@node1 ~]# vim /etc/ha.d/authkeys
 
auth 2
2 sha1 4d8fd6cb49d2047b

配置主配置文件

#配置文件如下
[root@node1 ~]# grep -v "#" /etc/ha.d/ha.cf |grep -v "^$"
logfile /var/log/ha-log  #日志存放位置
keepalive 2              #指定心跳使用间隔时间
deadtime 30              #指定备用节点接管主节点服务资源超时时间
warntime 10              #指定心跳延迟的时间
initdead 120             #解决网络启动延时
udpport 694              #设置广播通信端口
mcast eth0 225.0.25.1 694 1 0 #定义广播地址
auto_failback on              #定义当主节点恢复后,是否将服务自动切回
node    node1.scholar.com     #主节点
node    node2.scholar.com     #备用节点
ping 172.16.0.1               #仲裁设备
crm on                        #启用crm

将配置文件传给备用节点

6.jpg

启用crm图形界面时需要登录密码,在安装heartbeat-gui时会自动创建一个名为hacluster的用户,在任一节点上设置hacluster的密码即可

7.jpg

启动heartbeat

8.jpg

查看集群状态

[root@node1 ~]# crm_mon

9.jpg

启动gui界面

[root@node1 ~]# hb_gui &

10.jpg

11.jpg

Node:节点列表
Resources:资源列表
Constraints:限制约束
Locations:位置约束,资源对某节点运行的倾向性
Orders:顺序约束,属于同一服务的多个资源运行在同一节点时,其启动及关闭的次序约束
Colocations:排列约束,定义资源彼此间的倾向性(是否在一起)
资源类型:
primitive, native: 主资源,其仅能运行某一节点
group: 组资源,可用于实现限制多个资源运行于同一节点及对此些资源统一进行管理
clone: 克隆资源,一个资源可以运行于多个节点
       应该指定:最大克隆的份数,每个节点最多可以运行的克隆
master/slave: 主从资源,特殊的克隆资源

mysql的高可用需要3个资源:ip,mysqld,nfs,这3个资源都要运行在一个节点上,而且mysqld要在nfs启动之后出能启动,ip地址和mysqld服务之间没有先后关系,服务准备好后再启动ip也是可以的。高可用的httpd服务需要先启动ip,因为服务启动的时候明确需要ip地址的资源,这两类高可用资源之间是不同的。

添加资源

首先定义一个组

12.jpg

13.jpg

添加第一个资源

14.jpg

添加第二个资源

15.jpg

16.jpg

添加第三个资源

17.jpg

添加资源约束

nfs要和mysqld在一个节点

18.jpg

19.jpg

ip要和mysqld在一个节点

20.jpg

定义排列约束后这3个资源会同时运行在同一个节点上,需要注意的是mysqld服务要在nfs挂载之后启动,所以需要定义资源顺序约束

21.jpg

22.jpg

定义好顺序约束之后还可定义位置约束,可定义更倾向运行在哪个节点

23.jpg

24.jpg

添加表达式及对该节点的倾向性

25.jpg

启动所有资源

26.jpg

27.jpg

因为倾向于node1,所以资源运行于node1上,我们在node1授权一个用户测试

28.jpg

在其他客户端测试

29.jpg

此时模拟node1挂掉了,将node1设置为standby模式

30.jpg

再次连接数据库测试

31.jpg

数据没有受到丝毫影响,再次将node1上线,资源会再次回到node1,这里就不再演示了,至此,基于heartbeat v2 crm实现基于nfs的mysql高可用集群完成

The end

本次实验就进行到这里了,实验过程出现问题可以留言交流,后文将会提供另一种高可用方案:mysql + drbd + corosync,有兴趣可以继续关注。以上仅为个人学习整理,如有错漏,大神勿喷~~~

原创文章,作者:书生,如若转载,请注明出处:http://www.178linux.com/5171

(0)
上一篇 2015-06-11 13:18
下一篇 2015-06-12 16:18

相关推荐

  • linxu通配符

    通配符 globbing globbing:文件名通配(整体文件名匹配,而非部分) 匹配模式:元字符 *:匹配任意长度的任意字符 ab*:ab开头的单词 *ab*:包含ab的单词 *ab:ab结尾的单词 *a*b*:包含a、b的单词 ?:匹配任意单个字符 ab?:ab开头的三个字符的单词 ??ab:ab结尾四个字符的单词 a?b:a开头、b结尾三个字符的单词…

    Linux干货 2018-03-11
  • 马哥教育网络班22期+第九周课程练习

    1. 写一个脚本,判断当前系统上所有用户的shell是否为可登录shell(即用户的shell不是/sbin/nologin);分别这两类用户的个数;通过字符串比较来实现; #!/bin/bash#declare -a loginuserdeclare -i sum_login=0declare -i sum_nologin=0list=($(cat /et…

    Linux干货 2017-01-03
  • Linux哲学思想

    一切皆文件     这是第一知首先会想到的,所以在linux中的所谓文件夹也是文件,如果你用vi /tmp,也会发现其实里面是有内容的,对于文件而言,它的data block存放的是文件的内容,对于文件夹,它的data block存放的是文件的inode及对应的文件名。从结构上看它们是一致的。当然其它的诸如设备,管道等…

    Linux干货 2016-10-30
  • 磁盘配额、阵列与逻辑卷

    一、磁盘配额 在内核中执行以文件系统为单位启用对不同组或者用户的策略不同 根据块或者节点进行限制执行软限制(soft limit)硬限制(hard limit) 步骤一:获得文件系统支持临时有效:mount -o remount,usrquota,grpquota {mount_point|device}永久有效:写入配置文件 /etc/fstab 中检查文…

    Linux干货 2016-08-29
  • 开篇

    正式开始学习的第一天,了解LINUX,爱上LINUX。希望在往后的日子里越战越勇!!

    Linux干货 2017-07-11
  • 做有高薪有逼格的运维工程师,不会Linux是没有前途的!

    作为互联网的幕后英雄,运维工程师长期隐匿在大众认知范围之外,关于运维的讨论仍旧是一片无人涉足的荒漠。在某知名行业研究调查结果中,非互联网从业者对于运维相关问题的回复有三个高频词汇是:不知道、没听过、网管。当调查人员告诉他们科幻电影中展示黑客高超技巧时的命令行界面正是大多数运维工程师每日工作环境时,他们发出极其一致的惊叹。 相对于普罗大众的一无所知,技术圈对运…

    2017-09-08

评论列表(3条)

  • sqeues
    sqeues 2015-08-31 15:54

    root@node1 ~]# hb_gui &
    [1] 1690
    [root@node1 ~]# Traceback (most recent call last):
    File “/usr/bin/hb_gui”, line 41, in
    import gtk, gtk.glade, gobject
    File “/usr/lib64/python2.6/site-packages/gtk-2.0/gtk/__init__.py”, line 64, in
    _init()
    File “/usr/lib64/python2.6/site-packages/gtk-2.0/gtk/__init__.py”, line 52, in _init
    _gtk.init_check()
    RuntimeError: could not open display

    [1]+ Exit 1 hb_gui

  • sqeues
    sqeues 2015-08-31 16:10

    centos6.4最小化安装,Xmanager Enterprise 5执行hb_gui一直报错