目录
(见右侧目录栏导航)
- 1. RabbitMQ集群高可用 - 1.1 单一模式 - 1.2 普通模式 - 1.3 镜像模式- 2. 集群的基本概念- 3. RabbitMQ普通模式集群配置 - 3.1 安装 rabbitmq- 4. RabbitMQ 镜像集群配置- 5. 安装配置 Haproxy
1. RabbitMQ集群高可用
RabbitMQ是用erlang开发的,集群非常方便,因为erlang天生就是一门分布式语言,但其本身并不支持负载均衡。Rabbit模式大概分为以下三种: (1) 单一模式 (2) 普通模式 (3) 镜像模式
1.1 单一模式
最简单的情况,非集群模式。
1.2 普通模式
默认的集群模式 上面图中采用三个节点组成了一个RabbitMQ的集群,Exchange A (交换机)的元数据信息在所有节点上是一致的,而 Queue(存放消息的队列)的完整数据则只会存在于它所创建的那个节点上。其他节点只知道这个queue的metadata信息和一个指向queue的owner node的指针。 (1)RabbitMQ集群元数据的同步 RabbitMQ集群会始终同步四种类型的内部元数据(类似索引): a. 队列元数据:队列名称和它的属性; b. 交换机元数据:交换机名称、类型和属性; c. 绑定元数据:一张简单的表格展示了如何将消息路由到队列; d. vhost元数据:为vhost内的队列、交换机和绑定提供命名空间和安全属性; 因此,当用户访问其中任何一个RabbitMQ节点时,通过Rabbitctl查询到的queue/user/exchange/vhost等信息都是相同的。 对于Queue来说,消息实体只存在于其中一个节点,node1、node2、node3 三个节点仅有相同的元数据,即队列结构。 当消息进入node1节点的Queue中后,consumer从node2节点拉取时,RabbitMQ会临时在node1、node2之间进行消息传输,把node1中的消息实体取出并经过node2发送给consumer。 所以consumer应尽量连接每个节点,从中取消息。即对于同一个逻辑队列,要在多个节点建立物理Queue。否则无论consumer连A或B,出口总在A,会产生瓶颈。该模式存在一个问题就是当node1节点故障后,node2、node3节点无法取到node1节点中还未消费的消息实体。如果做了消息持久化,那么得等A节点恢复,然后才可被消费;如果没有持久化的话,那么数据就丢失了。1.3 镜像模式
把需要的队列做成镜像队列,存在于多个节点,属于RabbitMQ的HA方案。
该模式解决了上述问题,其实和普通模式不同之处在于,消息实体会主动在镜像节点间同步,而不是在consumer取数据时临时拉取。该模式带来的副作用也很明显,除了降低系统性能外,如果镜像队列数量过多,加之大量的消息进入,集群内部的网络带宽将会被这种同步通讯大大消耗掉。所以在对可靠性要求较高的场合中适用2. 集群的基本概念
RabbitMQ的集群节点包括内存节点、磁盘节点。顾名思义内存节点就是将所有数据放在内存,磁盘节点将数据放在磁盘。不过,如前文所述,如果在投递消息时,打开了消息的持久化,那么即使是内存节点,数据还是安全的放在磁盘。
一个rabbitmq集 群中可以共享 user,vhost,queue,exchange等,所有的数据和状态都是必须在所有节点上复制的,rabbitmq节点可以动态的加入到集群中,一个节点它可以加入到集群中,也可以从集群环集群会进行一个基本的负载均衡。集群中有两种节点: (1) 内存节点:只保存状态到内存(一个例外的情况是:持久的queue的持久内容将被保存到disk) (2) 磁盘节点:保存状态到内存和磁盘。内存节点虽然不写入磁盘,但是它执行比磁盘节点要好。集群中,只需要一个磁盘节点来保存状态 就足够了如果集群中只有内存节点,那么不能停止它们,否则所有的状态,消息等都会丢失。集群实现思路:那么具体如何实现RabbitMQ高可用,我们先搭建一个普通集群模式,在这个模式基础上再配置镜像模式实现高可用,Rabbit集群前增加一个反向代理,生产者、消费者通过反向代理访问RabbitMQ集群,如图:
3. RabbitMQ普通模式集群配置
3.1 安装 rabbitmq
(1)修改主机名、安装 rabbitmq
192.168.118.15 、192.168.118.16、192.168.118.17 对应执行以下操作(主机各自的主机名)[root@192.168.118.15 ~]# hostnamectl set-hostname node1[root@192.168.118.15 ~]# hostname node1[root@192.168.118.15 ~]# cd /opt/[root@192.168.118.15 /opt]# ls??# erlang、rabbitmq-server 下载地址:http://ww.rabbitmq.com/releases/erlang-19.0.4-1.el6.x86_64.rpm??rabbitmq-server-3.6.13-1.el7.noarch.rpm[root@192.168.118.15 /opt]# yum install *.rpm -y
只需在node1(192.168.118.15)上启动服务
[root@192.168.118.15 /opt]#systemctl start rabbitmq-server # 启动服务[root@192.168.118.15 ~]#rabbitmq-plugins enable rabbitmq_management # 开启后端web管理[root@192.168.118.15 ~]#netstat -ntplu | egrep beamtcp 0 0 0.0.0.0:25672 0.0.0.0:* LISTEN 4557/beam tcp 0 0 0.0.0.0:15672 0.0.0.0:* LISTEN 4557/beam tcp6 0 0 :::5672 :::* LISTEN 4557/beam
(2)拷贝 .erlang.cookie Rabbitmq的集群是依附于erlang的集群工作的,所以必须先构建起erlang的集群模式。erlang.cookie是erlang实现分布式的必要文件,erlang分布式的每个节点上要保持相同的.erlang.cookie文件,同时保证文件的权限是400
[root@192.168.118.15 ~]#cat /var/lib/rabbitmq/.erlang.cookie GFCOJDLAKUIEJCLKCNVR
将 192.168.118.15 的 .erlang.cookie 文件拷贝到 192.168.118.16、192.168.118.17 对应的目录下并设置权限
[root@192.168.118.15 ~]#scp /var/lib/rabbitmq/.erlang.cookie node2:/var/lib/rabbitmq/[root@192.168.118.15 ~]#scp /var/lib/rabbitmq/.erlang.cookie node3:/var/lib/rabbitmq/分别在 192.168.118.16、192.168.118.17 赋予权限192.168.118.16[root@192.168.118.16 ~]#ll /var/lib/rabbitmq/.erlang.cookie -r-------- 1 root root 20 Jan 7 20:43 /var/lib/rabbitmq/.erlang.cookie[root@192.168.118.16 ~]#chown rabbitmq:rabbitmq /var/lib/rabbitmq/.erlang.cookie192.168.118.17[root@192.168.118.17 ~]#ll /var/lib/rabbitmq/.erlang.cookie-r-------- 1 root root 20 Jan 7 20:45 /var/lib/rabbitmq/.erlang.cookie[root@192.168.118.17 ~]#chown rabbitmq:rabbitmq /var/lib/rabbitmq/.erlang.cookie开启 node2(192.168.118.16) node3(192.168.118.17) 服务[root@192.168.118.16 ~]#systemctl start rabbitmq-server[root@192.168.118.17 ~]#systemctl start rabbitmq-server
(3)将node2(192.168.118.16)、node3(192.168.118.17) 作为内存节点加入node1(192.168.118.15)节点集群中
node2(192.168.118.16)[root@192.168.118.16 ~]#rabbitmqctl stop_app Stopping rabbit application on node rabbit@node2[root@192.168.118.16 ~]#rabbitmqctl join_cluster --ram rabbit@node1Clustering node rabbit@node2 with rabbit@node1[root@192.168.118.16 ~]#rabbitmqctl start_appStarting node rabbit@node2node3(192.168.118.17)[root@192.168.118.17 ~]#rabbitmqctl stop_app # 停止rabbit应用Stopping rabbit application on node rabbit@node3[root@192.168.118.17 ~]#rabbitmqctl join_cluster --ram rabbit@node1 # 加入到磁盘节点Clustering node rabbit@node3 with rabbit@node1[root@192.168.118.17 ~]#rabbitmqctl start_app # 启动rabbit应用Starting node rabbit@node3
A. 默认rabbitmq启动后是磁盘节点,在这个cluster命令下,node2和node3是内存节点,node1是磁盘节点。 B. 如果要使node2、node3都是磁盘节点,去掉--ram参数即可。 C. 如果想要更改节点类型,可以使用命令rabbitmqctl change_cluster_node_type disc(ram),前提是必须停掉rabbit应用。 (4)查看集群状态
[root@192.168.118.15 ~]#rabbitmqctl cluster_status Cluster status of node rabbit@node1[{nodes,[{disc,[rabbit@node1]},{ram,[rabbit@node3,rabbit@node2]}]},{running_nodes,[rabbit@node3,rabbit@node2,rabbit@node1]}, # 正在运行中的集群节点{cluster_name,<<"rabbit@node1">>},{partitions,[]},{alarms,[{rabbit@node3,[]},{rabbit@node2,[]},{rabbit@node1,[]}]}]
(5)为rabbit添加用户并授权
[root@192.168.118.15 ~]#rabbitmqctl add_user admin admin # 新建用户Creating user "admin"[root@192.168.118.15 ~]#rabbitmqctl set_user_tags admin administrator # 赋予管理员角色Setting tags for user "admin" to [administrator][root@192.168.118.15 ~]#rabbitmqctl set_permissions admin '.*' '.*' '.*' # 授予管理、写、读权限Setting permissions for user "admin" in vhost "/"
(6)登录rabbitmq web管理控制台,创建新的队列 打开浏览器输入 http://192.168.118.15:15672/ 刚才的创建的用户:admin 密码: admin,登录后出现如图: 根据页面提示创建一条队列
在RabbitMQ普通集群中,必须至少有一个磁盘节点,否则队列元数据无法写入到集群中,当磁盘节点宕掉时,集群将无法写入新的队列元数据信息。
到此,rabbitmq 普通模式搭建完毕。4. RabbitMQ 镜像集群配置
上面已经完成RabbitMQ默认集群模式,但并不保证队列的高可用性,尽管交换机、绑定这些可以复制到集群里的任何一个节点,但是队列内容不会复制。虽然该模式解决一项目组节点压力,但队列节点宕机直接导致该队列无法应用,只能等待重启,所以要想在队列节点宕机或故障也能正常应用,就要复制队列内容到集群里的每个节点,必须要创建镜像队列。 镜像队列是基于普通的集群模式的,然后再添加一些策略,所以你还是得先配置普通集群,然后才能设置镜像队列,我们就以上面的集群接着做。 设置的镜像队列可以通过开启的网页的管理端,也可以通过命令,这里说的是其中的网页设置方式。 (1) 创建rabbitmq策略 在node1(192.168.118.15)节点的控制台上创建策略 A. 点击admin菜单–>右侧的Policies选项–>左侧最下下边的Add/update a policy。 B. 按照图中的内容根据自己的需求填写。
Name:策略名称 Pattern:匹配的规则,这里表示所有的队列,如果是匹配以a开头的队列,那就是^a. Definition:使用ha-mode模式中的all,也就是同步所有匹配的队列。问号链接帮助文档。
点击Add policy添加策略
此时分别登陆node2、node3两个节点的控制台,可以看到上面添加的这个策略,如图所示:
node2node3
(2)添加队列 在node1节点的控制台上添加队列 A. 点击Queues菜单–>左侧下边的Add a new queue B. 输入Name和Arguments参数的值,别的值默认即可
Name:队列名称Durability:队列是否持久化Node:消息队列的节点Auto delete:自动删除Arguments:使用的策略类型
将鼠标指向+2可以显示出另外两台消息节点。
(3)创建消息
A. 点击superman队列按钮 B. 拖动滚动条,点击publish message C. 填写相关内容
2-Persistent:表示持久化
Headers:随便填写即可Properties:点击问号,选择一个消息ID号Payload:消息内容
点击queue按钮,发现superman队列的Ready和Total中多了一条消息记录。 (4)做破坏性测试 A. 将node1节点的服务关闭,再通过node2和node3查看消息记录是否还存在。 停止 node1 rabbitmq服务
[root@192.168.118.15 ~]#systemctl stop rabbitmq-server
node2
node3
从中可以看到ab队列已经从之前的+2显示成+1了,而且消息记录是存在的。 B. 再将node2(192.168.118.16)节点的服务关闭,通过node3查看消息记录是否还存在。[root@192.168.118.16 ~]#systemctl stop rabbitmq-server
从中可以看到superman队列和消息记录还是存在的,只是变成了一个节点了。
C. 将node1和node2的服务再启动起来[root@192.168.118.15 ~]#rabbitmqctl sync_queue superman[root@192.168.118.16 ~]#rabbitmqctl sync_queue superman
从提示中显示镜像无法同步。如果这时候停掉node3节点的服务,那么队列里面的消息将会丢失。 启动后,不同步的解决方法是在node1、node2节点上执行同步命令。
[root@192.168.118.15 ~]#rabbitmqctl sync_queue superman[root@192.168.118.16 ~]#rabbitmqctl sync_queue superman
同步完成后,就显示同步镜像的节点。
这样,我们就测试了rabbitmq集群的破坏性测试,说明集群配置成功。
5. 安装配置 Haproxy
(1)修改主机名
[root@192.168.118.14 ~]#hostnamectl set-hostname haproxy ; hostname haproxy
(2)安装haproxy 这里就直接使用epel源安装haproxy
[root@192.168.118.14 ~]#yum install haproxy -y
(3)修改配置文件
[root@192.168.118.14 ~]#egrep -v '#|^$' /etc/haproxy/haproxy.cfg global log 127.0.0.1 local2 chroot /var/lib/haproxy pidfile /var/run/haproxy.pid maxconn 4000 user haproxy group haproxy daemon stats socket /var/lib/haproxy/stats defaults mode http log global option httplog option dontlognull option http-server-close option forwardfor except 127.0.0.0/8 option redispatch retries 3 timeout http-request 10s timeout queue 1m timeout connect 10s timeout client 1m timeout server 1m timeout http-keep-alive 10s timeout check 10s maxconn 3000 listen http_front # haproxy 管理后台 bind 0.0.0.0:1080 # 监听端口 mode http # 开启模式为http stats enable # 开启后台统计 stats hide-version # 隐藏统计页面上HAProxy的版本信息 stats refresh 30s # 统计页面自动刷新时间 stats uri /stats # 统计页面uri stats realm Haproxy Manager # 统计页面密码框上提示文本 stats auth admin:admin # 统计页面用户名和密码设置 stats admin if TRUE # 此项是实现haproxy监控页的管理功能的 listen rabbitmq_cluster # RabbitMQ 集群负载 bind 0.0.0.0:5672 # 监听端口 option tcplog mode tcp timeout client 3h timeout server 3h option clitcpka balance roundrobin # 负载均衡算法 server node2 192.168.118.16:5672 check inter 5s rise 2 fall 3 server node3 192.168.118.17:5672 check inter 5s rise 2 fall 3
server:定义haproxy内RabbiMQ服务的标识 ip:port: 标识了后端RabbitMQ的服务地址 check inter 5s: 表示每个5秒检测RabbitMQ服务是否可用 rise 2: 表示RabbitMQ服务在发生故障之后,需要2次健康检查才能被再次确认可用 fall 3: 表示需要经历 3 次失败的健康检查之后,HaProxy才会停止使用此RabbitMQ服务
具体HaProxy 相关说明:https://www.cnblogs.com/hukey/p/5586765.html (4)启动haproxy
[root@192.168.118.14 ~]#systemctl start haproxy[root@192.168.118.14 ~]#netstat -ntplu | egrep haproxy tcp 0 0 0.0.0.0:5672 0.0.0.0:* LISTEN 19006/haproxy tcp 0 0 0.0.0.0:1080 0.0.0.0:* LISTEN 19006/haproxy udp 0 0 0.0.0.0:43437 0.0.0.0:* 19005/haproxy
通过浏览器登录haproxy统计后台 http://192.168.118.14:1080/stats 到此,RabbitMQ + HaProxy 高可用集群搭建完毕,后面可自行进行测试。 本文参考链接: