Linux 配置 RabbitMQ 集群

Posted by     Aeric on Sunday, December 2, 2018

TOC

一般情况下,如果只是为了探究 RabbitMQ 或者验证业务工程的正确性那么在本地环境或者测试环境上使用其单实例部署就可以了,但是出于 MQ 中间件本身的可靠性、并发性、吞吐量和消息堆积能力等问题的考虑,在生产环境上一般都会考虑使用 RabbitMQ 的集群方案。

本文档旨在介绍 RabbitMQ 集群的工作原理以及在 CentOS 7 系统上安装配置具备高可用性和具备一定负载能力的 RabbitMQ 集群。

RabbitMQ 集群工作原理介绍

RabbitMQ 这款消息队列中间件产品本身是基于 Erlang 编写,Erlang 语言天生具备分布式特性(通过同步 Erlang 集群各节点的 magic cookie 来实现)。因此,RabbitMQ 天然支持 Clustering。这使得 RabbitMQ 本身不需要像ActiveMQ、Kafka 那样通过 ZooKeeper 分别来实现 HA 方案和保存集群的元数据。集群是保证可靠性的一种方式,同时可以通过水平扩展以达到增加消息吞吐量能力的目的。

RabbitMQ 集群有两种模式:

  • 默认模式,以两个节点 mq1 和 mq2 为例来进行说明。对于 Queue 来说,消息实体只存在于其中一个节点 mq1 或者 mq2 ,mq1 和 mq2 两个节点仅有相同的元数据,即队列的结构。当消息进入 mq1 节点的 Queue 后,consumer 从 mq2 节点消费时,RabbitMQ 会临时在 mq1 、mq2 间进行消息传输,把 A 中的消息实体取出并经过 B 发送给 consumer。所以 consumer 应尽量连接每一个节点,从中取消息。即对于同一个逻辑队列,要在多个节点建立物理 Queue。否则无论 consumer 连 mq1 或 mq2 ,出口总在 mq1,会产生瓶颈。当 mq1 节点故障后,mq2 节点无法取到 mq1 节点中还未消费的消息实体。如果做了消息持久化,那么得等 mq1 节点恢复,然后才可被消费;如果没有持久化的话,就会产生消息丢失的现象。
  • 镜像模式,把需要的队列做成镜像队列,存在与多个节点属于**RabbitMQ 的 HA 方案。**该模式解决了普通模式中的问题,其实质和普通模式不同之处在于,消息实体会主动在镜像节点间同步,而不是在客户端取数据时临时拉取。该模式带来的副作用也很明显,除了降低系统性能外,如果镜像队列数量过多,加之大量的消息进入,集群内部的网络带宽将会被这种同步通讯大大消耗掉。所以在对可靠性要求较高的场合中适用。

RabbitMQ 集群部署

RabbitMQ 集群主机环境如下:

mq-node1(master)  10.200.100.231 master.yeaheo.com
mq-node2(node01)  10.200.100.231 node01.yeaheo.com
mq-node3(node02)  10.200.100.231 node02.yeaheo.com

各主机系统环境及 MQ 版本如下:

➜ cat /etc/redhat-release
CentOS Linux release 7.5.1804 (Core)

➜ uname -r
3.10.0-862.el7.x86_64

Erlang : 21.1
RabbitMQ: v3.7.9

修改各主机 hosts 文件如下:

....
10.200.100.231 master master.yeaheo.com
10.200.100.217 node01 node01.yeaheo.com
10.200.100.218 node02 node02.yeaheo.com
....

配置 RabbitMQ 集群首先需要在各个主机上安装并配置 Erlang 和 RabbitMQ ,Erlang安装过程可以参考: rabbitmq-erlang-installation.md RabbitMQ 具体过程可以参考:rabbitmq-single-installation.md

当 Erlang 和 RabbitMQ 安装完成后就可以配置 RabbitMQ 集群了。

配置 RabbitMQ 集群

本次部署集群时都是将其他两个 RabbitMQ 加入到 master 主机现有集群中。

rabbitmq-server 启动时,会一起启动节点和应用,它预先设置 RabbitMQ 应用为 standalone 模式。要将一个节点加入到现有的集群中,你需要停止这个应用,并将节点设置为原始状态。如果使用 rabbitmqctl stop,应用和节点都将被关闭。所以使用 rabbitmqctl stop_app仅仅关闭应用

RabbitMQ 利用 erlang 的分布式特性组建集群,erlang 集群通过 magic cookie 实现,此 cookie 保存在➜home/.erlang.cookie,这里即:/var/lib/rabbitmq/.erlang.cookie,需要保证集群各节点的此 cookie 一致,可以选取一个节点的 cookie,采用 scp 同步到其他节点:

➜ scp /var/lib/rabbitmq/.erlang.cookie [email protected]:/var/lib/rabbitmq/.erlang.cookie
➜ scp /var/lib/rabbitmq/.erlang.cookie [email protected]:/var/lib/rabbitmq/.erlang.cookie

更换 cookie 后需要重启 RabbitMQ 服务:

➜ systemctl stop rabbitmq-server.service
➜ systemctl start rabbitmq-server.service

切换 RabbitMQ 启动方式

所有节点需要使用 -detached 参数启动服务:

# 需要在所有节点上执行
➜ rabbitmqctl stop
➜ rabbitmq-server -detached

组建 RabbitMQ 集群

因为将其他两个 RabbitMQ 加入到 master 主机现有集群中,所以只需要在 node01node02 上操作即可:

node01 主机(10.200.100.217)上操作:

node01➜ rabbitmqctl stop_app
node01➜ rabbitmqctl join_cluster [email protected]         ####这里集群的名字一定不要写错了
node01➜ rabbitmqctl start_app

集群名字一般可以在 master主机的日志文件中看到,需要注意的是这个集群名字需要和日志文件中保持一致,否则加入集群时会报错

node02 主机(10.200.100.218)上操作:

node02➜ rabbitmqctl stop_app
node02➜ rabbitmqctl join_cluster [email protected]         ####这里集群的名字一定不要写错了
node02➜ rabbitmqctl start_app

查看集群状态:

➜ rabbitmqctl cluster_status
Cluster status of node [email protected] ...
[{nodes,[{disc,[[email protected],[email protected]]},{ram,[[email protected]]}]},
 {running_nodes,[[email protected],[email protected],[email protected]]},
 {cluster_name,<<"[email protected]">>},
 {partitions,[]},
 {alarms,[{[email protected],[]},{[email protected],[]},{[email protected],[]}]}]

此时 node01node02 也会自动建立连接,集群配置完成。

如果要使用内存节点,则可以使用 rabbitmqctl join_cluster --ram [email protected] 加入集群。

RabbitMQ 节点分为内存节点和磁盘节点:

1)内存节点(RAM):内存节点将所有的队列、交换机、绑定、用户、权限和vhost的元数据定义存储在内存中 2)磁盘节点(Disk):将元数据存储在磁盘中,单节点系统只允许磁盘类型的节点,防止重启RabbitMQ的时候,丢失系统的配置信息。

如果需要切换节点类型,可以参考如下命令:

#如果节点已是"disk"节点,可以修改为内存节点
➜ rabbitmqctl stop_app
➜ rabbitmqctl change_cluster_node_type ram
➜ rabbitmqctl start_app

1)RabbitMQ要求在集群中至少有一个磁盘节点,所有其他节点可以是内存节点,当节点加入或者离开集群时,必须要将该变更通知到至少一个磁盘节点。如果集群中唯一的一个磁盘节点崩溃的话,集群仍然可以保持运行,但是无法进行其他操作(增删改查),直到节点恢复, 或者可以设置两个磁盘节点,以保持有一个是可用的。 2)内存节点虽然不写入磁盘,但是它执行比磁盘节点要好。 3)如果集群中只有内存节点,那么不能停止它们,否则所有的状态,消息等都会丢失。

设置镜像队列策略

经过上述配置,集群虽然搭建成功,但只是默认的普通集群,exchange,binding 等数据可以复制到集群各节点。 但对于队列来说,各节点只有相同的元数据,即队列结构,但队列实体只存在于创建改队列的节点,即队列内容不会复制(从其余节点读取,可以建立临时的通信传输)。这样此节点宕机后,其余节点无法从宕机节点获取还未消费的消息实体。如果做了持久化,则需要等待宕机节点恢复,期间其余节点不能创建宕机节点已创建过的持久化队列;如果未做持久化,则消息丢失。

下边来配置策略,策略名称为 ha-all,通配符 ^ 表示匹配到的所有队列,复制到所有节点,在任一节点上执行:

➜ rabbitmqctl set_policy ha-all "^" '{"ha-mode":"all"}'

也可以复制匹配到的队列到集群中的任意两个或多个节点,而不是到所有节点,并进行自动同步:

➜ rabbitmqctl set_policy ha-all "^" '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'

或者复制匹配到的队列到集群中的指定节点:

➜ rabbitmqctl set_policy ha-all "^" '{"ha-mode":"nodes","ha-params":["[email protected]","[email protected]"]}'

至此,镜像队列策略配置完成,同时也实现了 HA。

HAProxy 配置

我们在10.200.100.218主机上直接用 yum 安装 HAProxy 即可:

➜ yum -y install haproxy

修改 HAProxy 配置文件 /etc/haproxy/haproxy.cfg如下:

global
    log         127.0.0.1 local2

    chroot      /var/lib/haproxy
    pidfile     /var/run/haproxy.pid
    maxconn     4000
    user        haproxy
    group       haproxy
    daemon

    stats socket /var/lib/haproxy/stats

defaults
    mode                    tcp
    log                     global
    option                  tcplog
    option                  dontlognull
    retries                 3
    timeout http-request    10s
    timeout queue           1m
    timeout connect         10s
    timeout client          1m
    timeout server          1m
    timeout http-keep-alive 10s
    timeout check           10s
    maxconn                 3000

listen rabbitmq_cluster 0.0.0.0:5670
    mode tcp
    balance roundrobin
    server node1 10.200.100.217:5672 check inter 2000 rise 2 fall 3
    server node2 10.200.100.218:5672 check inter 2000 rise 2 fall 3
    server node3 10.200.100.231:5672 check inter 2000 rise 2 fall 3

listen monitor 0.0.0.0:8100
    mode http
    option httplog
    stats enable
    stats uri /stats
    stats refresh 5s

重启 HAProxy:

➜ systemctl restart haproxy.service

之后就可以通过 http://10.200.100.218:8100/stats 查看 HAProxy 的状态了。

如果用的是云主机,可以利用云服务商自己的 LB,不一定要用 HAProxy


comments powered by Disqus