linux中kafka集群搭建及常用命令

一、安装zookeeper集群

tar -zxvf apache-zookeeper-3.5.5-bin.tar.gz -C /usr/local/
cd /usr/local/
ln -s apache-zookeeper-3.5.5-bin zookeeper

mv zoo_sample.cfg zoo.cfg
vi zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/tmp/zookeeper/data
dataLogDir=/tmp/zookeeper/log
clientPort=2181
server.1=192.168.1.12:2888:3888
server.2=192.168.1.13:2888:3888
server.3=192.168.1.14:2888:3888

mkdir /tmp/zookeeper/data -p
mkdir /tmp/zookeeper/log -p

#在192.168.1.12上
echo 1 >/tmp/zookeeper/data/myid
#在192.168.1.13上
echo 2 >/tmp/zookeeper/data/myid
#在192.168.1.14上
echo 3 >/tmp/zookeeper/data/myid
vi /etc/profile
export ZOOKEEPER_HOME=/usr/local/zookeeper
export PATH=$PATH:$ZOOKEEPER_HOME/bin

source /etc/profile
zkServer.sh start
zkServer.sh status

二、安装Kafka集群

tar -zxvf kafka_2.11-2.2.1.tgz -C /usr/local/
cd /usr/local/
ln -s kafka_2.11-2.2.1 kafka
cd /usr/local/kafka/config
vi server.properties
broker.id=1
listeners=PLAINTEXT://192.168.1.12:9092
log.dirs=/tmp/kafka-logs
#设置可以删除toptic,如果没有设置 delete.topic.enable=true,则调用kafka 的delete命令无法真正将topic删除,而是显示(marked for deletion)
delete.topic.enable=true
#设置不能自动创建toptic,如果设置为true,则生产者在生产消息时如果toptic不存在则会自动创建
auto.create.topics.enable = false
zookeeper.connect=192.168.1.12:2181,192.168.1.12:2181,192.168.1.12:2181
cd /usr/local/kafka/bin
./kafka-server-start.sh -daemon ../config/server.properties

  

三、Kafka用户权限管理(SASL)和数据传输加密(SSL)

Kafka 权限管理实战(最全整理)
https://www.cnblogs.com/felixzh/p/13695298.html


Kafka SASL/SCRAM+ACL实现动态创建用户及权限控制(实现用户权限控制)
https://blog.csdn.net/ashic/article/details/86661599

Kafka实战:集群SSL加密认证和配置(最新版kafka-2.7.0)
https://www.cnblogs.com/felixzh/p/14661156.html
kafka学习笔记十kafka-SSL安全认证机制(实现数据安全传输)
https://blog.csdn.net/hwhanwan/article/details/82216016


SSL
https://blog.csdn.net/qq_38265137/article/details/90112705
https://blog.csdn.net/Tianlujunr/article/details/82379545?utm_medium=distribute.pc_relevant_t0.none-task-blog-2%7Edefault%7EBlogCommendFromMachineLearnPai2%7Edefault-1.control&depth_1-utm_source=distribute.pc_relevant_t0.none-task-blog-2%7Edefault%7EBlogCommendFromMachineLearnPai2%7Edefault-1.control

https://www.cnblogs.com/hofmann/p/11174258.html

  

四、Kafka常用命令

主题topic
a.创建topic
./kafka-topics.sh --create --zookeeper 192.168.1.12:2181 --replication-factor 1 --partitions 1 --topic my-kafka-topic
./kafka-topics.sh --create --bootstrap-server 192.168.1.12:9092 --replication-factor 1 --partitions 1 --topic my-kafka-toptic1   #--bootstrap-server指定broker地址,可以写多个地址,用逗号分割,用法和--zookeeper相同


b.查看topic列表
./kafka-topics.sh --list --zookeeper 192.168.1.13:2181
./kafka-topics.sh --list --bootstrap-server 192.168.1.13:9092
 
c.如果需要查看topic的详细信息,需要使用describe命令
kafka-topics.sh --describe --zookeeper 192.168.1.12:2181 --topic test-topic
 
d.#若不指定topic,则查看所有topic的信息
kafka-topics.sh --describe --zookeeper 192.168.1.12:2181
 
e.删除topic
kafka-topics.sh --delete --zookeeper 192.168.1.12:2181 --topic my-kafka-topic
#https://blog.csdn.net/qq_39657597/article/details/84307541?utm_term=kafka%E5%88%A0%E9%99%A4%E6%B6%88%E6%81%AF&utm_medium=distribute.pc_aggpage_search_result.none-task-blog-2~all~sobaiduweb~default-0-84307541&spm=3001.4430
-------------------------------------------
生产者
kafka-console-producer.sh --broker-list 192.168.1.12:9092 --topic my-kafka-topic
-------------------------------------------
消费者
kafka-console-consumer.sh --bootstrap-server 192.168.1.12:9092 --topic my-kafka-topic
# 如果需要从头开始接收数据,需要添加--from-beginning参数
kafka-console-consumer.sh --bootstrap-server 192.168.1.12:9092 --from-beginning --topic my-kafka-topic
#指定消费者组
./kafka-console-consumer.sh --bootstrap-server 192.168.1.12:9092 --topic my-kafka-toptic1 --group yingyong1 --from-beginning
查看消费者组
./kafka-consumer-groups.sh --bootstrap-server 192.168.1.12:9092  --list
查看消费者组中消费者消费的分区个数
./kafka-consumer-groups.sh --bootstrap-server 192.168.1.12:9092 --describe --members --group yingyong1
重置offset到指定位置(1、--to-offset 30,2、--to-offset --to-earliest,3、--to-offset --to-current,),前提是没有消费者在连着
./kafka-consumer-groups.sh --bootstrap-server 192.168.1.12:9092 --group yingyong2 --reset-offsets --topic my-kafka-topic5 --to-offset 30 --execute
读取指定toptic中的指定分区中的指定offset后面的2条消息
./kafka-console-consumer.sh --bootstrap-server 192.168.1.12:9092 --topic my-kafka-topic5  --partition 1 --offset 10036 --max-messages 2
查看消费者组消息消费情况(查看消息的堆积情况)
./kafka-consumer-groups.sh --bootstrap-server 192.168.1.12:9092 --describe --group yingyong1
TOPIC           PARTITION  CURRENT-OFFSET  LOG-END-OFFSET  LAG             CONSUMER-ID     HOST            CLIENT-ID
my-kafka-topic5 4          25              25              0               -               -               -
my-kafka-topic5 2          26              26              0               -               -               -
my-kafka-topic5 0          25              25              0               -               -               -
my-kafka-topic5 3          26              27              1               -               -               -
my-kafka-topic5 1          25              25              0               -               -               -
注:LAG当前分区中消息堆积个数
	LOG-END-OFFSET当前分区中最后一条消息的位置
	CURRENT-OFFSET消费者组中当前分区已经消费到的位置
	同一个toptic,不同的消费者组中LOG-END-OFFSET是一样的,而CURRENT-OFFSET是不一样的。

删除toptic中的消息
a.查看分区和offset
./kafka-consumer-groups.sh --bootstrap-server 192.168.1.12:9092 --describe --group yingyong1
b.编写一个json文件
vi /tmp/offsetfile.json
{"partitions": [{"topic": "my-kafka-topic5", "partition": 4, "offset": 27}], "version":1 }
c.执行命令删除
./kafka-delete-records.sh --bootstrap-server 192.168.1.12:9092 --offset-json-file /tmp/offsetfile.json

#########################################
./kafka-topics.sh --describe  --zookeeper  192.168.1.12:2181
Topic:my-kafka-topic5   PartitionCount:5        ReplicationFactor:2     Configs:
        Topic: my-kafka-topic5  Partition: 0    Leader: 3       Replicas: 2,3   Isr: 3,2
        Topic: my-kafka-topic5  Partition: 1    Leader: 3       Replicas: 3,1   Isr: 3,1
        Topic: my-kafka-topic5  Partition: 2    Leader: 1       Replicas: 1,2   Isr: 1,2
        Topic: my-kafka-topic5  Partition: 3    Leader: 1       Replicas: 2,1   Isr: 1,2
        Topic: my-kafka-topic5  Partition: 4    Leader: 3       Replicas: 3,2   Isr: 3,2
注:Isr(in-sync Replica)在同步的副本,Replicas指副本在哪个代理上
一个分区只能被一个消费者组中的一个消费者消费,
如果一个消费者组中有5个分区一个消费者,那么这个消费者会消费这五个分区
如果一个消费者组中有5个分区2个个消费者,那么第一个消费者会消费3个分区,另一个消费者会消费2个分区
如果一个消费者组中有5个分区6个个消费者,那么其中5个消费者会分别消费一个,而第六个消费者不会消费数据,当前五个中有退出的时候,第六个消费者才会消费数据
生产者和消费者在连接kafka时,既可以连接kafka服务器的地址,也可以连接zookeeper的地址,且地址可以写多个中间用逗号隔开即可

  

  

  

  

  

  

原文地址:https://www.cnblogs.com/qqran/p/14772107.html