CentOs搭建Kafka集群
2024-01-07 17:31:22
Centos7搭建Kafka集群
一、集群规划
192.168.239.140 | 192.168.239.141 | 192.168.239.142 |
---|---|---|
zookeeper | zookeeper | zookeeper |
kafka | kafka | kafka |
二、环境准备
请自行安装JDK与Zookeeper集群
Zookeeper集群安装参考
三、安装kafka集群
1、下载kafka安装包
kafka_2.13-3.6.1.tgz
2、解压
tar -zxvf kafka_2.13-3.6.1.tgz
3、配置环境变量
vim /etc/profile.d/my_env.sh
在“my_env.sh”文件中添加如下内容:
#KAFKA_HOME(路径按需修改)
export KAFKA_HOME=/wz_program/kafka/kafka_2.13-3.6.1
export PATH=$PATH:$KAFKA_HOME/bin
文件编辑完后执行如下命令:
source /etc/profile
4、编辑配置文件
进入“config”目录下,修改server.properties文件
vim server.properties
①修改broker.id
特别注意:broker.id在整个集群中全局唯一,不能重复,只能是数字
broker.id
②配置kafka运行日志路径
kafka运行日志(数据)存放的路径,路径不需要手动创建,kafka会自动创建。可以配置多个磁盘路径,路径与路径之间可以用","分隔。
log.dirs
③配置Zookeeper集群地址
zookeeper.connect=
5、启动集群
启动kafka集群前需要保证zookeeper集群已启动!!!
进入kafka的bin目录下执行如下命令:
./kafka-server-start.sh -daemon ../config/server.properties
关闭集群可使用如下命令:
./kafka-server-stop.sh
特别注意:停止Kafka集群时,一定要等Kafka所有节点进程全部停止后再停止Zookeeper集群。因为Zookeeper集群当中记录着Kafka集群相关信息,Zookeeper集群一旦先停止,Kafka集群就没有办法再获取停止进程的信息,只能手动杀死Kafka进程了。
6、测试kafka
①、创建topic
kafka-topics.sh --bootstrap-server hadoop001:9092 --create --partitions 1 --replication-factor 3 --topic test_first
②、查看当前服务器中的所有topic
kafka-topics.sh --bootstrap-server hadoop001:9092 --list
③、生产者与消费者
生产者:
kafka-console-producer.sh --bootstrap-server hadoop001:9092 --topic test_first
消费者:
kafka-console-consumer.sh --bootstrap-server hadoop001:9092 --topic test_first
文章来源:https://blog.csdn.net/qq_26709459/article/details/135385210
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!