openstack (共享服务) 消息队列rabbitmq服务

云计算openstack共享组件——消息队列rabbitmq(3)

 

一、MQ 全称为 Message Queue, 消息队列( MQ )

是一种应用程序对应用程序的通信方法。应用程序通过读写出入队列的消息(针对应用程序的数据)来通信,而无需专用连接来链接它们。

消息传递指的是程序之间通过在消息中发送数据进行通信,而不是通过直接调用彼此来通信,直接调用通常是用于诸如远程过程调用的技术。排队指的是应用程序通过队列来通信。队列的使用除去了接收和发送应用程序同时执行的要求。

排队指的是应用程序通过 队列来通信。队列的使用除去了接收和发送应用程序同时执行的要求。

二、AMQP  即 Advanced Message Queuing Protocol

高级消息队列协议,是应用层协议的一个开放标准,为面向消息的中间件设计。消息中间件主要用于组件之间的解耦,消息的发送者无需知道消息使用者的存在,反之亦然。

AMQP 的主要特征是面向消息、队列、路由(包括点对点和发布 / 订阅)、可靠性、安全。

三、 Rabbitmq概念:

       属于一个流行的开源消息队列系统。属于AMQP( 高级消息队列协议 ) 标准的一个 实现。是应用层协议的一个开放标准,为面向消息的中间件设计。用于在分布式系统中存储转发消息,在 易用性、扩展性、高可用性等方面表现不俗。

       消息中间件主要用于组件之间的解耦,消息的发送者无需知道消息使用者的存在,反之亦然。
       AMQP 的主要特征是面向消息、队列、路由(包括点对点和发布 / 订阅)、可靠性、安全。

       RabbitMQ特点:
    使用Erlang编写
    支持持久化
    支持HA
    提供C# , erlang,java,perl,python,ruby等的client开发端

四、什么是耦合、解耦合

一、耦合
  1、耦合是指两个或两个以上的体系或两种运动形式间通过相互作用而彼此影响以至联合起来的现象。

  2、在软件工程中,对象之间的耦合度就是对象之间的依赖性。对象之间的耦合越高,维护成本越高,因此对象的设计应使类和构件之间的耦合最小。

  3、分类:有软硬件之间的耦合,还有软件各模块之间的耦合。耦合性是程序结构中各个模块之间相互关联的度量。它取决于各个模块之间的接口的复杂程度、调用模块的方式以及哪些信息通过接口。

二、解耦
  1、解耦,字面意思就是解除耦合关系。

  2、在软件工程中,降低耦合度即可以理解为解耦,模块间有依赖关系必然存在耦合,理论上的绝对零耦合是做不到的,但可以通过一些现有的方法将耦合度降至最低。

  3、设计的核心思想:尽可能减少代码耦合,如果发现代码耦合,就要采取解耦技术。让数据模型,业务逻辑和视图显示三层之间彼此降低耦合,把关联依赖降到最低,而不至于牵一发而动全身。原则就是A功能的代码不要写在B的功能代码中,如果两者之间需要交互,可以通过接口,通过消息,甚至可以引入框架,但总之就是不要直接交叉写。

五、RabbitMQ中的概念名词

Broker:简单来说就是消息队列服务器实体。

Exchange:消息交换机,它指定消息按什么规则,路由到哪个队列。

Queue:消息队列载体,每个消息都会被投入到一个或多个队列。 Binding:绑定,它的作用就是把exchange和queue按照路由规则绑定起来。

Routing Key:路由关键字, exchange根据这个关键字进行消息投递。

vhost:虚拟主机,一个broker里可以开设多个vhost,用作不同用户的权限分离。

producer:消息生产者,就是投递消息的程序。

consumer:消息消费者,就是接受消息的程序。

channel:消息通道,在客户端的每个连接里,可建立多个channel,每个 channel代表一个会话任务。

六、RabbitMQ工作理

MQ 是消费 - 生产者模型的一个典型的代表,一端往消息队列中不断写入消息,而另一端则可以读取或者订阅队列中的消息。 MQ 则是遵循了 AMQP协议的具体实现和产品。在项目中,将一些无需即时返回且耗时的操作提取出来,进行了异步处理,而这种异步处理的方式大大的节省了服务器的请求响应时间,从而提高了系统的吞吐量。

( 1)客户端连接到消息队列服务器,打开一个channel。

( 2)客户端声明一个exchange,并设置相关属性。

( 3)客户端声明一个queue,并设置相关属性。

( 4)客户端使用routing key,在exchange和queue之间建立好绑定关系。

( 5)客户端投递消息到exchange。

( 6) exchange接收到消息后,就根据消息的key和已经设置的binding,进 行消息路由,将消息投递到一个或多个队列里

七、Rabbitmq 的 metadata

  元数据可以持久化在 RAM 或 Disc. 从这个角度可以把 RabbitMQ 集群中的节点分成两种 :RAM Node和 Disk Node.

       RAM Node 只会将元数据存放在RAM

       Disk node 会将元数据持久化到磁盘。 

   单节点系统就没有什么选择了 , 只允许 disk node, 否则由于没有数据冗余一旦重启就会丢掉所有的配置信息 . 但在集群环境中可以选择哪些节点是 RAM node.在集群中声明(declare) 创建 exchange queue binding, 这类操作要等到所有的节点都完成创建才会返回 : 
       如果是内存节点就要修改内存数据 , 
       如果是 disk node 就要等待写磁盘 , 节点过多这里的速度就会被大大的拖慢 .

    有些场景 exchang queue 相当固定 , 变动很少 ,那即使全都是 disc node, 也没有什么影响 . 如果使用 Rabbitmq 做 RPC( RPC :Remote Procedure Call—远程过程调用),  RPC 或者类似 RPC 的场景这个问题就严重了 , 频繁创建销毁临时队列 , 磁盘读写能力就很快成为性能瓶颈了。所以 , 大多数情况下 , 我们尽量把 Node 创建为RAM Node. 这里就有一个问题了 , 要想集群重启后元数据可以恢复就需要把集群元数据持久化到磁盘 , 那需要规划 RabbitMQ 集群中的 RAM Node 和 Disc Node 。

    只要有一个节点是 Disc Node 就能提供条件把集群元数据写到磁盘 ,RabbitMQ 的确也是这样要求的 : 集群中只要有一个 disk node 就可以 , 其它的都可以是 RAM node. 节点加入或退出集群一定至少要通知集群中的一个 disk node 。

    如果集群中 disk node 都宕掉 , 就不要变动集群的元数据 . 声明 exchange queue 修改用户权限 , 添加用户等等这些变动在节点重启之后无法恢复 。

    有一种情况要求所有的 disk node 都要在线情况在才能操作 , 那就是增加或者移除节点 .RAM node 启动的时候会连接到预设的 disk node 下载最新的集群元数据 . 如果你有两个 disk node(d1 d2), 一个 RAM node 加入的时候你只告诉 d1, 而恰好这个 RAM node 重启的时候 d1 并没有启动 , 重启就会失败 . 所以加入 RAM 节点的时候 , 把所有的disk node 信息都告诉它 ,RAM node 会把 disk node 的信息持久化到磁盘以便后续启动可以按图索骥 .

 

八、Rabbitmq 集群部署

三台机器都开启3块网卡

一、前期准备

 1.修改主机名

[root@localhost ~]# hostnamectl set-hostname node1

[root@localhost ~]# su

[root@node1 ~]#

[root@node1 ~]#

[root@localhost ~]# hostnamectl set-hostname node2

[root@localhost ~]# su

[root@node2 ~]#

[root@node2 ~]#

[root@localhost ~]# hostnamectl set-hostname node3

[root@localhost ~]# su

[root@node3 ~]#

[root@node3 ~]#

[root@node2 ~]# nmtui 图片化修改网卡

[root@node2 ~]# wget http://download2.yunwei.edu/shell/yum-repo.sh

--2019-07-30 19:30:00-- http://download2.yunwei.edu/shell/yum-repo.sh

正在解析主机 download2.yunwei.edu (download2.yunwei.edu)... 失败:未知的名称或服务。

wget: 无法解析主机地址 “download2.yunwei.edu” dns有问题需要修改

[root@node3 ~]# cat /etc/resolv.conf

# Generated by NetworkManager

nameserver 172.16.254.110

nameserver 114.114.114.114

(2)三台机器能够静态解析彼此 用简短的名称代替ip

 1.vim /etc/hosts

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4

::1 localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.194.7 node1

192.168.194.8 node2

192.168.194.9 node3

2.scp /etc/hosts node1:/etc/ 复制到其他主机上面

 (3)设置可以无密钥登陆

ssh-keygen 一路回车 中途yes

ssh-copy-id node2

ssh node2 登录到node2主机

ssh node3 登录到node3主机

exit 退出 登录主机

 二、安装过程:

yum install wget -y 下载wget

(1)条件:准备3台linux系统,确保配置好源,及epel源

1.wget http://download2.yunwei.edu/shell/yum-repo.sh 下载源

[root@node1 ~]# wget http://download2.yunwei.edu/shell/yum-repo.sh -y

wget:无效选项 -- y

用法: wget [选项]... [URL]...

请尝试使用“wget --help”查看更多的选项。

[root@node1 ~]# wget http://download2.yunwei.edu/shell/yum-repo.sh

--2019-08-09 19:55:41-- http://download2.yunwei.edu/shell/yum-repo.sh

正在解析主机 download2.yunwei.edu (download2.yunwei.edu)... 失败:未知的名称或服务。

wget: 无法解析主机地址 “download2.yunwei.edu”

问题解决

方法1 nmetui进入图形化界面解决DNS

方法2

vim /etc/sysconfig/network-scripts/ifcfg-ens33

TYPE=Ethernet

BOOTPROTO=static

DEVICE=ens33

ONBOOT=yes

IPADDR=192.168.194.6

NETMASK=255.255.255.0

GATEWAY=192.168.194.2

DNS1=172.16.254.110

DNS2=114.114.114.114

3 重新启动

systemctl restart network

 2.bash yum-repo.sh 三台全部执行脚本 获取源

3.[root@node1 ~]# cd /etc/yum.repos.d

[root@node1 yum.repos.d]# ls

Centos7-Base-yunwei.repo epel-yunwei.repo old rdo-release-yunwei.repo

[root@node1 yum.repos.d]# 只留下这三种源

 4.(1)所有node安装rabbtimq和erlang(erlang语言编写的)软件包:

yum install -y erlang rabbitmq-server.noarch

systemctl enable rabbitmq-server.service 开机自启动

5.systemctl start rabbitmq-server.service 本次开启

6.systemctl status rabbitmq-server.service

[root@node3 ~]# systemctl status rabbitmq-server.service

● rabbitmq-server.service - RabbitMQ broker

Loaded: loaded (/usr/lib/systemd/system/rabbitmq-server.service; enabled; vendor preset: disabled)

Active: active (running) since 三 2019-07-31 11:53:43 CST; 23s ago

Main PID: 20402 (beam.smp)

Status: "Initialized"

Tasks: 73

CGroup: /system.slice/rabbitmq-server.service

├─20402 /usr/lib64/erlang/erts-7.3.1.2/bin/beam.smp -W w -A 64 -P 1048576 -t 5000...

├─20602 inet_gethost 4

└─20603 inet_gethost 4

 查看监听端口:

7. netstat -lantp | grep 5672

配置文件位置 了解在哪里:

vim /etc/rabbitmq/rabbitmq.config

8.(2)node1:修改guest密码为admin(默认用户为:guest 密码为:guest)

rabbitmqctl change_password guest admin 只需要修改第一个就可以 其他的都会加入到集群 进行同步 用户名 guest 密码 admin

(3)node1:添加一个openstack的用户,并设密码为admin。并设置权限和成为管理员

node1:

rabbitmqctl add_user openstack admin

rabbitmqctl set_permissions openstack ".*" ".*" ".*"

rabbitmqctl set_user_tags openstack administrator

创建一个集群的变量文件

9.(4)node1:编辑rabbittmq变量文件

vim /etc/rabbitmq/rabbitmq-env.conf

RABBITMQ_NODE_PORT=5672

ulimit -S -n 4096

RABBITMQ_SERVER_ERL_ARGS="+K true +A30 +P 1048576 -kernel inet_default_connect_options [{nodelay,true},{raw,6,18,<<5000:64/native>>}] -kernel inet_default_listen_options [{raw,6,18,<<5000:64/native>>}]"

RABBITMQ_NODE_IP_ADDRESS=172.16.254.60 本机ip地址

%s /172.16.254.60/172.168.194.7/g 批量修改

10.(5)node1:将rabbittmq变量文件拷贝到其他两节点,之后并修改相应节点的ip

scp /etc/rabbitmq/rabbitmq-env.conf node2:/etc/rabbitmq/

vim /etc/rabbitmq/rabbitmq-env.conf

scp /etc/rabbitmq/rabbitmq-env.conf node3:/etc/rabbitmq/

vim /etc/rabbitmq/rabbitmq-env.conf

11.node1 查看rabbitmq插件

/usr/lib/rabbitmq/bin/rabbitmq-plugins list

图形化界面 [ ] rabbitmq_management 前面什么都没有 说明不能登录

(6)所有node 开启rabbitmq的web管理页面

/usr/lib/rabbitmq/bin/rabbitmq-plugins enable rabbitmq_management mochiweb webmachine rabbitmq_web_dispatch amqp_client rabbitmq_management_agent

12. 开启pluguns的插件

rabbitmq-plugins enable rabbitmq_management

 [root@node1 ~]# rabbitmq-plugins enable rabbitmq_management

The following plugins have been enabled:

mochiweb

webmachine

rabbitmq_web_dispatch

amqp_client

rabbitmq_management_agent

rabbitmq_management

Applying plugin configuration to rabbit@node1... started 6 plugins.

13.systemctl restart rabbitmq-server.service node2 node3开启

14.systemctl status rabbitmq-server.service 查看开启状态

15.网页查看  全部登录显示登录界面

192.168.194.7:15672

192.168.194.8:15672

192.168.194.9:15672

输入登录账户密码

node1 账户guest 密码 admin

node2 账户guest 密码 guest

node3 账户guest 密码 guest

如果登录不上去 查看防火墙是否关闭

 16. node1发送erlang.cookie到其他节点配置

[root@node1 ~]# cd /var/lib/rabbitmq/

[root@node1 rabbitmq]# ls

mnesia

[root@node1 rabbitmq]# ls -a

. .. .erlang.cookie mnesia

[root@node1 rabbitmq]# cat .erlang.cookie

CBAPZBCEMQZAYZLQDEFO[root@node1 rabbitmq]#

才能组成集群 node1 的编码和 node2 node3 一致

scp /var/lib/rabbitmq/.erlang.cookie con2:/var/lib/rabbitmq/.erlang.cookie

scp /var/lib/rabbitmq/.erlang.cookie con3:/var/lib/rabbitmq/.erlang.cookie

把node1主机的信息传达给node2 node3 只有消息一致 才能组成集群

17.

rabbitmqctl cluster_status 查看每台主机集群应运状态

 18. 建立集群

node2和node3停止应用,并以ram的方式加入node1节点,之后重启应用

node2 node3 加入集群 加入到node1 以内存方式建立

rabbitmqctl stop_app

rabbitmqctl join_cluster --ram rabbit@node1 一内存形式加入node1

rabbitmqctl start_app 重启app

rabbitmqctl cluster_status

node2 node3 重启

systemctl restart rabbitmq-server.service

 rabbitmqctl cluster_status 查看集群状态、开启和关闭的状态对比

 (9)node1检查集群状态

19. [root@con1 conf]# rabbitmqctl cluster_status 运行3个节点

Cluster status of node rabbit@con1 ...

[{nodes,[{disc,[rabbit@con1]},{ram,[rabbit@con3,rabbit@con2]}]},

{running_nodes,[rabbit@con3,rabbit@con2,rabbit@con1]},

{cluster_name,<<"rabbit@con1">>},

{partitions,[]},

{alarms,[{rabbit@con3,[]},{rabbit@con2,[]},{rabbit@con1,[]}]}]

(10)登陆验证: 显示3个节点http://172.16.254.60:15672/#/             guest/admin

更改之后 密码也修改成第一台主机的密码

 其他命令:

(1)添加管理员:

rabbitmqctl add_user mqadmin mqadmin 增加用户

rabbitmqctl set_permissions -p / mqadmin ".*" ".*" ".*" 设置权限

rabbitmqctl list_users

后面是 administrator 的时候才可以登录

class后面需要添加administrator

rabbitmqctl set_user_tags mqadmin administrator 只有管理员可以登录图形化界面

(2)更改节点类型(内存型或磁盘型)

rabbitmqctl stop_app

rabbitmqctl change_cluster_node_type disc 或 rabbitmqctl change_cluster_node_type ram

rabbitmqctl start_app

(3)从集群移除节点(或者重置节点)

rabbitmqctl stop_app

rabbitmqctl reset

rabbitmqctl start_app

rabbitmqctl cluster_status

(4)从某个节点移除集群中其他节点

rabbitmqctl forget_cluster_node rabbit@node3 node1上面执行

rabbitmqctl reset node3上面执行

rabbitmqctl start_app

rabbitmqctl cluster_status

1. 保证集群中至少有一个磁盘类型的节点以防数据丢失,在更改节点类型时尤其要注意。

2. 若整个集群被停掉了,应保证最后一个 down 掉的节点被最先启动,若不能则要使用 forget_cluster_node 命令将其移出集群

3. 若集群中节点几乎同时以不可控的方式 down 了此时在其中一个节点使用 force_boot 命令重启节点

 
原文地址:https://www.cnblogs.com/it-peng/p/11363276.html