安装Kafka

1.默认安装好zookeeper和scala
2.下载安装包,解压
  tar -zxvf kafka_2.11-0.9.0.1.tgz kafka_2.11-0.9.0.1
3.配置环境变量
  vim /etc/profile
  #kafka
  export KAFKA_HOME=/opt/kafka_2.11-0.9.0.1
  export PATH=$PATH:$KAFKA_HOME/bin
  source /etc/profile
4.修改配置文件
  config/server.properties
  broker.id=0 //整型 从0开始 高可用是注意修改
  host.name=127.0.0.1 //节点IP 高可用时注意修改本机IP 172.16.104.241
  log.dirs=/opt/kafka_2.11-0.9.0.1/logs //日志目录
  zookeeper.connect=127.0.0.1:2181 //zookeeper 多个时用逗号分隔 高可用时为zookeeper集群 A:9092,B:9092
  zookeeper.connection.timeout.ms=600000 //连接超时

  config/producer.properties
  metadata.broker.list=127.0.0.1:9092 //注意修改IP地址 高可用时为本机Ip A:9092,B:9092

  config/consumer.properties
  zookeeper.connect=127.0.0.1:2181 //注意修改IP地址 高可用时为zookeeper集群 A:9092,B:9092

5.验证
1.启动zookeeper
  zkServer.sh start //高可用时 需每台机子执行一次
2.启动kafka server端
  bin/kafka-server-start.sh config/server.properties & //高可用时 需每台机子执行一次
3.启动producer
  bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test01
4.启动consumer
  bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test01 --from-beginning
  //注意集群环境时需更改为zookeeper 集群链接 如: A:2181,B:2181,C:2181.....
5.此时在producer中输入内容在consumer中可以显示该内容(需多开几个命令行窗口)

6.示例使用(//注意集群环境时需更改为zookeeper 集群链接 如: A:2181,B:2181,C:2181.....)
1.创建主题
  bin/kafka-topics.sh --create  --zookeeper localhost:2181  --replication-factor 1  --partitions 1  --topic test
  // 高可用时 replication-factor为副本数 不能多于broker节点数 partitions 为分区数
2.查看主题
  bin/kafka-topics.sh --list --zookeeper localhost:2181
3.查看主题详情
  bin/kafka-topics.sh--describe --zookeeper localhost:2181 --topic test
4.删除主题
  bin/kafka-run-class.sh kafka.admin.DeleteTopicCommand --zookeeper localhost:2181 --topic test
5.同步文件内容
  bin/connect-standalone.sh config/connect-standalone.properties
  config/connect-file-source.properties config/connect-file-sink.properties
  //将connect-file-source.properties配置的文件内容同步到connect-file-sink.properties配置的文件中



原文地址:https://www.cnblogs.com/ciade/p/6221350.html