被问到 Kafka,不要再说你不会了

  Kafka 是一个优秀的分布式消息中间件,许多系统中都会使用到 Kafka 来做消息通信。对分布式消息系统的了解和使用几乎成为一个后台开发人员必备的技能。今天码哥字节就从常见的 Kafka 面试题入手,和大家聊聊 Kafka 的那些事儿。

  

思维导图

  讲一讲分布式消息中间件

  问题

  什么是分布式消息中间件?

  消息中间件的作用是什么?

  消息中间件的使用场景是什么?

  消息中间件选型?

  

消息队列

  分布式消息是一种通信机制,和 RPC、HTTP、RMI 等不一样,消息中间件采用分布式中间代理的方式进行通信。如图所示,采用了消息中间件之后,上游业务系统发送消息,先存储在消息中间件,然后由消息中间件将消息分发到对应的业务模块应用(分布式生产者 - 消费者模式)。这种异步的方式,减少了服务之间的耦合程度。

  

架构

  定义消息中间件:

  利用高效可靠的消息传递机制进行平台无关的数据交流

  基于数据通信,来进行分布式系统的集成

  通过提供消息传递和消息排队模型,可以在分布式环境下扩展进程间的通信

  在系统架构中引用额外的组件,必然提高系统的架构复杂度和运维的难度,那么在系统中使用分布式消息中间件有什么优势呢?消息中间件在系统中起的作用又是什么呢?

  解耦

  冗余(存储)

  扩展性

  削峰

  可恢复性

  顺序保证

  缓冲

  异步通信

  面试时,面试官经常会关心面试者对开源组件的选型能力,这既可以考验面试者知识的广度,也可以考验面试者对某类系统的知识的认识深度,而且也可以看出面试者对系统整体把握和系统架构设计的能力。开源分布式消息系统有很多,不同的消息系统的特性也不一样,选择怎样的消息系统,不仅需要对各消息系统有一定的了解,也需要对自身系统需求有清晰的认识。

  下面是常见的几种分布式消息系统的对比:

  

选择

  答案关键字

  什么是分布式消息中间件?通信,队列,分布式,生产消费者模式。

  消息中间件的作用是什么? 解耦、峰值处理、异步通信、缓冲。

  消息中间件的使用场景是什么? 异步通信,消息存储处理。

  消息中间件选型?语言,协议、HA、数据可靠性、性能、事务、生态、简易、推拉模式。

  Kafka 基本概念和架构

  问题

  简单讲下 Kafka 的架构?

  Kafka 是推模式还是拉模式,推拉的区别是什么?

  Kafka 如何广播消息?

  Kafka 的消息是否是有序的?

  Kafka 是否支持读写分离?

  Kafka 如何保证数据高可用?

  Kafka 中 zookeeper 的作用?

  是否支持事务?

  分区数是否可以减少?

  Kafka 架构中的一般概念:

  

架构

  Producer:生产者,也就是发送消息的一方。生产者负责创建消息,然后将其发送到 Kafka。

  Consumer:消费者,也就是接受消息的一方。消费者连接到 Kafka 上并接收消息,进而进行相应的业务逻辑处理。

  Consumer Group:一个消费者组可以包含一个或多个消费者。使用多分区 + 多消费者方式可以极大提高数据下游的处理速度,同一消费组中的消费者不会重复消费消息,同样的,不同消费组中的消费者消息消息时互不影响。Kafka 就是通过消费组的方式来实现消息 P2P 模式和广播模式。

  Broker:服务代理节点。Broker 是 Kafka 的服务节点,即 Kafka 的服务器。

  Topic:Kafka 中的消息以 Topic 为单位进行划分,生产者将消息发送到特定的 Topic,而消费者负责订阅 Topic 的消息并进行消费。

  Partition:Topic 是一个逻辑的概念,它可以细分为多个分区,每个分区只属于单个主题。同一个主题下不同分区包含的消息是不同的,分区在存储层面可以看作一个可追加的日志(Log)文件,消息在被追加到分区日志文件的时候都会分配一个特定的偏移量(offset)。

  Offset:offset 是消息在分区中的唯一标识,Kafka 通过它来保证消息在分区内的顺序性,不过 offset 并不跨越分区,也就是说,Kafka 保证的是分区有序性而不是主题有序性。

  Replication:副本,是 Kafka 保证数据高可用的方式,Kafka 同一 Partition 的数据可以在多 Broker 上存在多个副本,通常只有主副本对外提供读写服务,当主副本所在 broker 崩溃或发生网络一场,Kafka 会在 Controller 的管理下会重新选择新的 Leader 副本对外提供读写服务。

  Record: 实际写入 Kafka 中并可以被读取的消息记录。每个 record 包含了 key、value 和 timestamp。

  Kafka Topic Partitions Layout

  

主题

  Kafka 将 Topic 进行分区,分区可以并发读写。

  Kafka Consumer Offset

  

consumer offset

  zookeeper

  

zookeeper

  Broker 注册:Broker 是分布式部署并且之间相互独立,Zookeeper 用来管理注册到集群的所有 Broker 节点。

  Topic 注册: 在 Kafka 中,同一个 Topic 的消息会被分成多个分区并将其分布在多个 Broker 上,这些分区信息及与 Broker 的对应关系也都是由 Zookeeper 在维护

  生产者负载均衡:由于同一个 Topic 消息会被分区并将其分布在多个 Broker 上,因此,生产者需要将消息合理地发送到这些分布式的 Broker 上。

  消费者负载均衡:与生产者类似,Kafka 中的消费者同样需要进行负载均衡来实现多个消费者合理地从对应的 Broker 服务器上接收消息,每个消费者分组包含若干消费者,每条消息都只会发送给分组中的一个消费者,不同的消费者分组消费自己特定的 Topic 下面的消息,互不干扰。

  答案关键字

  简单讲下 Kafka 的架构?

  Producer、Consumer、Consumer Group、Topic、Partition

  Kafka 是推模式还是拉模式,推拉的区别是什么?

  Kafka Producer 向 Broker 发送消息使用 Push 模式,Consumer 消费采用的 Pull 模式。拉取模式,让 consumer 自己管理 offset,可以提供读取性能

  Kafka 如何广播消息?

  Consumer group

  Kafka 的消息是否是有序的?

  Topic 级别无序,Partition 有序

  Kafka 是否支持读写分离?

  不支持,只有 Leader 对外提供读写服务

  Kafka 如何保证数据高可用?

  副本,ack,HW

  Kafka 中 zookeeper 的作用?

  集群管理,元数据管理

  是否支持事务?

  0.11 后支持事务,可以实现”exactly once“

  分区数是否可以减少?

  不可以,会丢失数据

  Kafka 使用

  问题

  Kafka 有哪些命令行工具?你用过哪些?

  Kafka Producer 的执行过程?

  Kafka Producer 有哪些常见配置?

  如何让 Kafka 的消息有序?

  Producer 如何保证数据发送不丢失?

  如何提升 Producer 的性能?

  如果同一 group 下 consumer 的数量大于 part 的数量,kafka 如何处理?

  Kafka Consumer 是否是线程安全的?

  讲一下你使用 Kafka Consumer 消费消息时的线程模型,为何如此设计?

  Kafka Consumer 的常见配置?

  Consumer 什么时候会被踢出集群?

  当有 Consumer 加入或退出时,Kafka 会作何反应?

  什么是 Rebalance,何时会发生 Rebalance?

  命令行工具

  Kafka 的命令行工具在 Kafka 包的/bin目录下,主要包括服务和集群管理脚本,配置脚本,信息查看脚本,Topic 脚本,客户端脚本等。

  kafka-configs.sh: 配置管理脚本

  kafka-console-consumer.sh: kafka 消费者控制台

  kafka-console-producer.sh: kafka 生产者控制台

  kafka-consumer-groups.sh: kafka 消费者组相关信息

  kafka-delete-records.sh: 删除低水位的日志文件

  kafka-log-dirs.sh:kafka 消息日志目录信息

  kafka-mirror-maker.sh: 不同数据中心 kafka 集群复制工具

  kafka-preferred-replica-election.sh: 触发 preferred replica 选举

  kafka-producer-perf-test.sh:kafka 生产者性能测试脚本

  kafka-reassign-partitions.sh: 分区重分配脚本

  kafka-replica-verification.sh: 复制进度验证脚本

  kafka-server-start.sh: 启动 kafka 服务

  kafka-server-stop.sh: 停止 kafka 服务

  kafka-topics.sh:topic 管理脚本

  kafka-verifiable-consumer.sh: 可检验的 kafka 消费者

  kafka-verifiable-producer.sh: 可检验的 kafka 生产者

  zookeeper-server-start.sh: 启动 zk 服务

  zookeeper-server-stop.sh: 停止 zk 服务

  zookeeper-shell.sh:zk 客户端

  我们通常可以使用kafka-console-consumer.sh和kafka-console-producer.sh脚本来测试 Kafka 生产和消费,kafka-consumer-groups.sh可以查看和管理集群中的 Topic,kafka-topics.sh通常用于查看 Kafka 的消费组情况。

  Kafka Producer

  Kafka producer 的正常生产逻辑包含以下几个步骤:

  配置生产者客户端参数常见生产者实例。

  构建待发送的消息。

  发送消息。

  关闭生产者实例。

  Producer 发送消息的过程如下图所示,需要经过拦截器,序列化器和分区器,最终由累加器批量发送至 Broker。

  

producer

  Kafka Producer 需要以下必要参数:

  bootstrap.server: 指定 Kafka 的 Broker 的地址

  key.serializer: key 序列化器

  value.serializer: value 序列化器

  常见参数:

  batch.num.messages

  默认值:200,每次批量消息的数量,只对 asyc 起作用。

  request.required.acks

  默认值:0,0 表示 producer 毋须等待 leader 的确认,1 代表需要 leader 确认写入它的本地 log 并立即确认,-1 代表所有的备份都完成后确认。 只对 async 模式起作用,这个参数的调整是数据不丢失和发送效率的 tradeoff,如果对数据丢失不敏感而在乎效率的场景可以考虑设置为 0,这样可以大大提高 producer 发送数据的效率。

  request.timeout.ms

  默认值:10000,确认超时时间。

  partitioner.class

  默认值:kafka.producer.DefaultPartitioner,必须实现 kafka.producer.Partitioner,根据 Key 提供一个分区策略。有时候我们需要相同类型的消息必须顺序处理,这样我们就必须自定义分配策略,从而将相同类型的数据分配到同一个分区中。

  producer.type

  默认值:sync,指定消息发送是同步还是异步。异步 asyc 成批发送用 kafka.producer.AyncProducer, 同步 sync 用 kafka.producer.SyncProducer。同步和异步发送也会影响消息生产的效率。

  compression.topic

  默认值:none,消息压缩,默认不压缩。其余压缩方式还有,"gzip"、"snappy"和"lz4"。对消息的压缩可以极大地减少网络传输量、降低网络 IO,从而提高整体性能。

  compressed.topics

  默认值:null,在设置了压缩的情况下,可以指定特定的 topic 压缩,未指定则全部压缩。

  message.send.max.retries

  默认值:3,消息发送最大尝试次数。

  retry.backoff.ms

  默认值:300,每次尝试增加的额外的间隔时间。

  topic.metadata.refresh.interval.ms

  默认值:600000,定期的获取元数据的时间。当分区丢失,leader 不可用时 producer 也会主动获取元数据,如果为 0,则每次发送完消息就获取元数据,不推荐。如果为负值,则只有在失败的情况下获取元数据。

  queue.buffering.max.ms

  默认值:5000,在 producer queue 的缓存的数据最大时间,仅仅 for asyc。

  queue.buffering.max.message

  默认值:10000,producer 缓存的消息的最大数量,仅仅 for asyc。

  queue.enqueue.timeout.ms

  默认值:-1,0 当 queue 满时丢掉,负值是 queue 满时 block, 正值是 queue 满时 block 相应的时间,仅仅 for asyc。

  Kafka Consumer

  Kafka 有消费组的概念,每个消费者只能消费所分配到的分区的消息,每一个分区只能被一个消费组中的一个消费者所消费,所以同一个消费组中消费者的数量如果超过了分区的数量,将会出现有些消费者分配不到消费的分区。消费组与消费者关系如下图所示:

  

consumer group

  Kafka Consumer Client 消费消息通常包含以下步骤:

  配置客户端,创建消费者

  订阅主题

  拉去消息并消费

  提交消费位移

  关闭消费者实例

  

过程

   郑州看妇科哪家医院好http://www.zztongjifk.com/

  因为 Kafka 的 Consumer 客户端是线程不安全的,为了保证线程安全,并提升消费性能,可以在 Consumer 端采用类似 Reactor 的线程模型来消费数据。

  

消费模型

   郑州妇科医院排名http://www.zztjfkyy.com/

  Kafka consumer 参数

  bootstrap.servers: 连接 broker 地址,host:port 格式。

  group.id: 消费者隶属的消费组。

  key.deserializer: 与生产者的key.serializer对应,key 的反序列化方式。

  value.deserializer: 与生产者的value.serializer对应,value 的反序列化方式。

  session.timeout.ms: coordinator 检测失败的时间。默认 10s 该参数是 Consumer Group 主动检测 (组内成员 comsummer) 崩溃的时间间隔,类似于心跳过期时间。

  auto.offset.reset: 该属性指定了消费者在读取一个没有偏移量后者偏移量无效(消费者长时间失效当前的偏移量已经过时并且被删除了)的分区的情况下,应该作何处理,默认值是 latest,也就是从最新记录读取数据(消费者启动之后生成的记录),另一个值是 earliest,意思是在偏移量无效的情况下,消费者从起始位置开始读取数据。

  enable.auto.commit: 否自动提交位移,如果为false,则需要在程序中手动提交位移。对于精确到一次的语义,最好手动提交位移

  fetch.max.bytes: 单次拉取数据的最大字节数量

  max.poll.records: 单次 poll 调用返回的最大消息数,如果处理逻辑很轻量,可以适当提高该值。 但是max.poll.records条数据需要在在 session.timeout.ms 这个时间内处理完 。默认值为 500

  request.timeout.ms: 一次请求响应的最长等待时间。如果在超时时间内未得到响应,kafka 要么重发这条消息,要么超过重试次数的情况下直接置为失败。

原文地址:https://www.cnblogs.com/sushine1/p/13840440.html