初识中间件之消息队列--提高服务性能

初识中间件之消息队列

1 消息队列概述

消息队列是分布式系统中的重要组件,主要解决应用耦合,异步消息,流量削锋等问题,以实现高性能,高可用,可伸缩和最终一致性架构,是大型分布式系统中不可缺少的中间件。

目前使用较多的消息队列有ActiveMQ,RabbitMQ,ZeroMQ,Kafka,MetaMQ,RocketMQ等,比如我之前用过的RabbitMQ以及kafka。

2 消息队列应用场景

在实际应用中,消息队列常用于异步处理、应用解耦、流量削锋和消息通讯这四个场景。

2.1 异步处理

用户注册后,需要发注册邮件和注册短信。传统的做法有两种:1.串行;2.并行。

  • 串行:将注册信息写入数据库成功后,发送注册邮件,再发送注册短信。以上三个任务全部完成后,再返回结果给客户端,如图所示:

  • 并行:将注册信息写入数据库成功后,发送注册邮件的同时,发送注册短信。以上三个任务完成后,返回给客户端。与串行的差别是,并行的方式可以提高处理的时间,如图所示:

假设三个业务节点,每个使用50ms,不考虑网络等其他开销,则串行方式的时间是150ms,并行的时间可能是100ms。

因为CPU在单位时间内处理的请求数是一定的,假设CPU1秒内吞吐量是1次,则串行方式1秒内CPU可处理的请求量是7次(1000/150),并行方式处理的请求量是10次(1000/100)。

小结:如以上案例描述,传统方式系统的性能(并发量,吞吐量,响应时间)会有瓶颈。如何解决这个问题呢?

引入消息队列,将不是必须的业务逻辑进行异步处理。改造后的架构如下:

注册邮件和发送短信写入消息队列后,直接返回,因此写入消息队列的速度很快,基本可以忽略,预估为5ms,再加上注册信息写入数据库的时间50ms,总体响应时间就只有55ms。可见架构改变后,系统的TPS提高到了20(1000/55),比串行提高了3倍,比并行提高了2倍。

2.2 应用解耦

用户下单后,订单系统需要通知库存系统。传统的做法是,订单系统调用库存系统的接口

传统模式的缺点:

  • 假如库存系统无法访问,则订单减库存将失败,从而导致下单失败;

  • 订单系统与库存系统耦合。

如何解决以上问题呢?引入消息队列后的方案如下图所示:

  • 订单系统:用户下单后,订单系统完成持久化处理,将消息写入消息队列,返回用户订单下单成功;

  • 库存系统:订阅下单的消息,采用拉/推的方式,获取下单信息,库存系统根据下单信息,进行库存操作;

  • 假如在下单时库存系统不能正常使用,也不影响正常下单,因为下单后,订单系统写入消息队列就不再关心其他的后续操作了。实现订单系统与库存系统的应用解耦。

2.3 流量削锋

流量削锋也是消息队列中的常用场景,一般在秒杀或团抢活动中使用广泛。

秒杀活动,可能会因为流量暴增而导致应用挂掉。为了解决这个问题,一般需要在应用前端加入消息队列,这样做的用处有:

  • 可以控制参加活动的人数;

  • 可以缓解短时间内流量增长的速度,避免压垮应用;

  • 服务器接收用户的请求后,首先写入消息队列。假如消息队列长度超过最大数量,则直接抛弃用户请求或跳转到错误页面;

  • 秒杀业务根据消息队列中的请求信息,再做后续处理。

2.4 日志处理

日志处理是指将消息队列用在日志处理中,比如Kafka的应用,解决大量日志传输的问题。架构简化如下:

      

  • 日志采集客户端:负责日志数据采集,定时写入Kafka队列;

  • Kafka消息队列:负责日志数据的接收、存储和转发;

  • 日志处理业务:订阅并消费Kafka队列中的日志数据。

以下是新浪的Kafka日志处理应用案例:

  • Kafka:接收用户日志的消息队列;

  • Logstash:做日志解析,统一成JSON输出给Elasticsearch;

  • Elasticsearch:实时日志分析服务的核心技术,由Schemaless提供实时的数据存储服务,通过index组织数据,兼具强大的搜索和统计功能;

  • Kibana:基于Elasticsearch的数据可视化组件,超强的数据可视化能力是众多公司选择ELK stack的重要原因。

2.5 消息通讯

消息队列一般都内置了高效的通信机制,因此也可以用于单纯的消息通讯,比如实现点对点消息队列或者聊天室等。

  • 点对点通讯:

客户端A和客户端B使用同一队列,进行消息通讯。

  • 聊天室通讯:

客户端A,客户端B,客户端N订阅同一主题,进行消息发布和接收,即可实现类似聊天室的效果。

3 消息中间件示例

3.1 电商系统

消息队列采用高可用,可持久化的消息中间件,比如Active MQ,Rabbit MQ以及Rocket Mq。

  • 应用将主干逻辑处理完成后,写入消息队列。消息发送是否成功可以开启消息的确认模式。(消息队列返回消息接收成功状态后,应用再返回,这样保障消息的完整性);

  • 扩展流程(发短信,进销存处理)订阅队列消息,采用推或拉的方式获取消息并处理;

  • 消息将应用解耦的同时,带来了数据一致性问题,可以采用最终一致性方式解决。比如主数据写入数据库,扩展应用根据消息队列,并结合数据库方式实现基于消息队列的后续处理。

3.2日志收集系统

分为Zookeeper注册中心、日志收集客户端、Kafka集群和Storm集群(OtherApp)四部分组成。

  • Zookeeper注册中心,提出负载均衡和地址查×××;

  • 日志收集客户端,用于采集应用系统的日志,并将数据推送到kafka队列;

  • Kafka集群:接收,路由,存储,转发等消息处理;

  • Storm集群:与OtherApp处于同一级别,采用拉的方式消费队列中的数据。

4 JMS消息服务

讲消息队列就不得不提JMS 。JMS(JAVA Message Service,Java消息服务)API是一个消息服务的标准/规范,允许应用程序组件基于JavaEE平台创建、发送、接收和读取消息。它使分布式通信耦合度更低,消息服务更加可靠以及异步性。

在EJB架构中,有消息Bean可以无缝地与JM消息服务集成。在J2EE架构模式中,有消息服务者模式,用于实现消息与应用直接的解耦。

4.1消息模型

在JMS标准中,有两种消息模型P2P(Point to Point)和Publish/Subscribe(Pub/Sub)。

4.1.1 P2P模式

P2P模式包含三个角色:消息队列(Queue),发送者(Sender)以及接收者(Receiver)。每个消息都被发送到一个特定的队列,接收者从队列中获取消息。队列保留着消息,直到他们被消费或超时。我们的跨境电商项目目前用的就是这种模式。

P2P的特点:

  • 每个消息只有一个消费者(Consumer)(即一旦被消费,消息就不再在消息队列中);

  • 发送者和接收者之间在时间上没有依赖性,也就是说当发送者发送了消息之后,不管接收者有没有正在运行,它不会影响到消息被发送到队列;

  • 接收者在成功接收消息之后需向队列应答成功。

如果希望发送的每个消息都会被成功处理的话,那么需要P2P模式。

4.1.2 Pub/Sub模式

包含三个角色:主题(Topic),发布者(Publisher)以及订阅者(Subscriber)。多个发布者将消息发送到Topic,系统将这些消息传递给多个订阅者。

Pub/Sub的特点:

  • 每个消息可以有多个消费者;

  • 发布者和订阅者之间有时间上的依赖性。针对某个主题(Topic)的订阅者,它必须创建一个订阅者之后,才能消费发布者的消息;

  • 为了消费消息,订阅者必须保持运行的状态。

为了缓和这样严格的时间相关性,JMS允许订阅者创建一个可持久化的订阅。这样,即使订阅者没有被激活(运行),它也能接收到发布者的消息。

如果希望发送的消息可以不被做任何处理、或者只被一个消息者处理、或者可以被多个消费者处理的话,那么可以采用Pub/Sub模型。

4.2 消息消费

在JMS中,消息的产生和消费都是异步的,JMS的消费者可以通过两种方式来消费消息。

  • 同步:订阅者或接收者通过Receive方法来接收消息,Receive方法在接收到消息之前(或超时之前)将一直阻塞;

  • 异步:订阅者或接收者可以注册为一个消息监听器,当消息到达之后,系统自动调用监听器的onMessage方法。

JNDI:Java命名和目录接口,是一种标准的Java命名系统接口。可以在网络上查找和访问服务。通过指定一个资源名称,该名称对应于数据库或命名服务中的一个记录,同时返回资源连接建立所必须的信息。

JNDI在JMS中起到查找和访问发送目标或消息来源的作用。

4.3 JMS编程模型

(1) ConnectionFactory

创建Connection对象的工厂,针对两种不同的JMS消息模型,分别有QueueConnectionFactory和TopicConnectionFactory两种。可以通过JNDI来查找ConnectionFactory对象。

(2) Destination

Destination的意思是消息生产者的消息发送目标或者说消息消费者的消息来源。对于消息生产者来说,它的Destination是某个队列(Queue)或某个主题(Topic);对于消息消费者来说,它的Destination也是某个队列或主题(即消息来源)。

所以,Destination实际上就是两种类型的对象:Queue、Topic可以通过JNDI来查找Destination。

(3) Connection

Connection表示在客户端和JMS系统之间建立的链接(对TCP/IP Socket的包装)。Connection可以产生一个或多个Session。跟ConnectionFactory一样,Connection也有两种类型:QueueConnection和TopicConnection。

(4) Session

Session是操作消息的接口。可以通过Session创建生产者、消费者、消息等。Session提供了事务的功能。当需要使用Session发送/接收多个消息时,可以将这些发送/接收动作放到一个事务中。同样,也分QueueSession和TopicSession。

(5) 消息的生产者

消息生产者由Session创建,并用于将消息发送到Destination。同样,消息生产者分两种类型:QueueSender和TopicPublisher。可以调用消息生产者的方法(send或publish方法)发送消息。

(6) 消息消费者

消息消费者由Session创建,用于接收被发送到Destination的消息。两种类型:QueueReceiver和TopicSubscriber。可分别通过Session的createReceiver(Queue)或createSubscriber(Topic)来创建。当然,也可以使用Session的creatDurableSubscriber方法来创建持久化的订阅者。

(7) MessageListener

消息监听器。如果注册了消息监听器,一旦消息到达,将自动调用监听器的onMessage方法。EJB中的MDB(Message-Driven Bean)就是一种MessageListener。

5 常用消息队列

一般商用的容器,比如WebLogic,JBoss,都支持JMS标准,开发上很方便。但免费的比如Tomcat,Jetty等则需要使用第三方的消息中间件。本部分内容介绍常用的消息中间件(Rabbit MQ,Rabbit MQ,Zero MQ,Kafka)以及它们的特点。

5.1 RabbitMQ

RabbitMQ是流行的开源消息队列系统,用erlang语言开发。RabbitMQ是AMQP(高级消息队列协议)的标准实现,支持多种客户端,如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP等,支持AJAX,持久化。用于在分布式系统中存储转发消息,在易用性、扩展性、高可用性等方面表现不俗。我们的跨境电商项目选用的消息队列就是RabbitMQ。

结构图如下:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

几个重要概念:

  • Broker:简单来说就是消息队列服务器实体;

  • Exchange:消息交换机,它指定消息按什么规则,路由到哪个队列;

  • Queue:消息队列载体,每个消息都会被投入到一个或多个队列;

  • Binding:绑定,它的作用就是把Exchange和Queue按照路由规则绑定起来;

  • Routing Key:路由关键字,Exchange根据这个关键字进行消息投递;

  • Vhost:虚拟主机,一个Broker里可以开设多个Vhost,用作不同用户的权限分离;

  • Producer:消息生产者,就是投递消息的程序;

  • Consumer:消息消费者,就是接受消息的程序;

  • Channel:消息通道,在客户端的每个连接里,可建立多个Channel,每个Channel代表一个会话任务。

消息队列的使用过程如下:

(1)生产者和消费者连接到消息队列服务器,打开一个Channel;

(2)生产者和消费者声明一个Exchange,并设置相关属性;

(3)生产者和消费者声明一个Queue,并设置相关属性;

(4)生产者和消费者使用Routing Key,在Exchange和Queue之间建立好绑定关系;

(5)生产者投递消息到Exchange。Exchange接收到消息后,就根据消息的Key和已经设置的Binding进行消息路由,将消息投递到一个或多个队列里;

(6)消费者从队列读取消息进行消费。

5.2 ActiveMQ

ActiveMQ 是Apache出品,最流行的,能力强劲的开源消息总线。ActiveMQ 是一个完全支持JMS1.1和J2EE 1.4规范的 JMS Provider实现,尽管JMS规范出台已经是很久的事情了,但是JMS在当今的J2EE应用中仍然扮演着特殊的地位。

ActiveMQ特性如下:

  • 多种语言和协议编写客户端。语言: Java,C,C++,C#,Ruby,Perl,Python,PHP。应用协议: OpenWire,Stomp REST,WS Notification,XMPP,AMQP;

  • 完全支持JMS1.1和J2EE 1.4规范 (持久化,XA消息,事务);

  • 对Spring的支持,ActiveMQ可以很容易内嵌到使用Spring的系统里面去,而且也支持Spring2.0的特性;

  • 通过了常见J2EE服务器(如 Geronimo,JBoss 4,GlassFish,WebLogic)的测试,其中通过JCA 1.5 Resource Adaptors的配置,可以让ActiveMQ可以自动地部署到任何兼容J2EE 1.4 商业服务器上;

  • 支持多种传送协议:in-VM,TCP,SSL,NIO,UDP,JGroups,JXTA;

  • 支持通过JDBC和Journal提供高速的消息持久化;

  • 从设计上保证了高性能的集群,客户端-服务器,点对点;

  • 支持Ajax;

  • 支持与Axis的整合;

  • 可以很容易地调用内嵌JMS provider,进行测试。

5.3 ZeroMQ

号称史上最快的消息队列,它实际类似于Socket的一系列接口,跟Socket的区别是:普通的Socket是端到端的(1:1的关系),而ZeroMQ却是可以N:M 的关系,人们对BSD套接字的了解较多的是点对点的连接,点对点连接需要显式地建立连接、销毁连接、选择协议(TCP/UDP)和处理错误等,而ZeroMQ屏蔽了这些细节,让网络编程更为简单。ZeroMQ用于Node与Node间的通信,Node可以是主机或者是进程。

引用官方的说法: “ZeroMQ是一个简单好用的传输层,像框架一样的一个Socket Library,它使得Socket编程更加简单、简洁和高性能。同时也是一个消息处理队列库,可在多个线程、内核和主机盒之间弹性伸缩。ZeroMQ的明确目标是“成为标准网络协议栈的一部分,之后进入Linux内核”。现在还未看到它们的成功。但是,它无疑是极具前景的、并且是人们更加需要的“传统”BSD套接字之上的一层封装。ZeroMQ让编写高性能网络应用程序极为简单和有趣。”

特点如下:

  • 高性能,非持久化;

  • 跨平台:支持Linux、Windows、OS X等;

  • 多语言支持: C、C++、Java、.NET、Python等30多种开发语言;

  • 可单独部署或集成到应用中使用;

  • 可作为Socket通信库使用。

与RabbitMQ相比,ZeroMQ并不像是一个传统意义上的消息队列服务器,事实上,它也根本不是一个服务器,更像一个底层的网络通讯库,在Socket API之上做了一层封装,将网络通讯、进程通讯和线程通讯抽象为统一的API接口。支持“Request-Reply “,”Publisher-Subscriber“,”Parallel Pipeline”三种基本模型和扩展模型。

ZeroMQ高性能设计要点:

  • 无锁的队列模型:对于跨线程间的交互(用户端和Session)之间的数据交换通道Pipe,采用无锁的队列算法CAS;在Pipe两端注册有异步事件,在读或者写消息到Pipe的时,会自动触发读写事件;

  • 批量处理的算法:对于传统的消息处理,每个消息在发送和接收的时候,都需要系统的调用,这样对于大量的消息,系统的开销比较大,zeroMQ对于批量的消息,进行了适应性的优化,可以批量地接收和发送消息;

  • 多核下的线程绑定,无须CPU切换:区别于传统的多线程并发模式,信号量或者临界区,ZeroMQ充分利用多核的优势,每个核绑定运行一个工作者线程,避免多线程之间的CPU切换开销。

5.4 Kafka

Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据通常是由于吞吐量的要求而通过日志聚合和分析来解决。对于像Hadoop一样的日志数据离线分析系统,如果有实时处理的需求,Kafka就是一个可行的解决方案。Kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群机来提供实时的消费。

Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:

  • 通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。(文件追加的方式写入数据,过期的数据定期删除);

  • 高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息;

  • 支持通过Kafka服务器和消费机集群来分区消息;

  • 支持Hadoop并行数据加载。

Kafka相关概念:

  • Broker:Kafka集群包含一个或多个服务器,这种服务器被称为Broker;

  • Topic:每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic(物理上不同Topic的消息分开存储,逻辑上一个Topic的消息虽然保存于一个或多个Broker上,但用户只需指定消息的Topic即可生产或消费数据,而不必关心数据存于何处);

  • Partition:Parition是物理上的概念,每个Topic包含一个或多个Partition;

  • Producer:负责发布消息到Kafka Broker;

  • Consumer:消息消费者,即向Kafka Broker读取消息的客户端;

  • Consumer Group:每个Consumer属于一个特定的Consumer Group(可为每个Consumer指定Group Name,若不指定Group Name则属于默认的Group)。

Kafka一般在大数据日志处理或对实时性(少量延迟)、可靠性(少量丢数据)要求稍低的场景使用。

原文地址:https://www.cnblogs.com/mmz-tester/p/15001708.html