zookeeper集群+kafka集群
zookeeper集群+kafka集群:
Kafka3.0 之前依赖于zookeeper
Zookeeper开源,分布式的架构。提供协调服务(Apache项目)
基于观察者模式涉及的分布式服务管理架构
存储和管理数据。分布式节点上的服务接受观察者的注册。一旦分布式节点上的数据发生变化,由zookeeper开发负责通知分布式节点上的服务
zookeeper:分为领导者和追随者 ?leader follower组成的集群
只要有一半以上的集群存活,zookeeper集群就可以正常工作。适用于安装奇数台的服务集
群。
全局数据一致,每个zookeeper每个节点都保存相同的数据。维护监控服务的数据——一致
数据更新的原子性。要么都成功,要么都失败。
实时性,只要有变化,立刻同步。
zookeeper的应用场景:
- 统一命名服务,在分布式的环境下,对所有的应用和服务进行统一命名。
- 统一配置管理,配置文件同步,kafka的配置文件被修改,可以快速同步到其他节点。
- 统一集群管理,实时掌握所有节点的状态。
- 服务器动态上下线。
- 负载均衡,把访问的服务器的数据,发送到访问最少的服务器处理客户端的请求。
。
领导者和追随者:zookeeper的选举机制
三台服务器: A B C
A 先启动,发起第一次选举,投票给自己,只有1票,不满半数,A的状态是looking
B 启动,再发起一次选举,A和B分别投自己一票,交换选票信息,myid,A发现B的myid
??比A大,A的这一票转而投给B
A 0 ?B 2 没有半数以上结果,A B会进入looking
C 启动 myid C的myid最大,A和B都会把票投给C
A 0 B 0 C 3 ,C的状态变为leader,A和B变成follower
只要leader确定,后续的服务器都是追随者
只有两种情况会开启选举机制:
- 初始化的情况会产生选举
- 服务器之间和leader丢失了连接状态
leader已经存在,建立连接即可
leader不存在
- 服务器ID大的胜出
- EPOCH大的直接胜出
- EPOCH相同,事务ID大的胜出
EPOCH每个leader任期的代号,没有leader,大家的逻辑地址相同,每投完一次之后,数据是递增。
事务ID,表示服务器的每一次变更,每变更一次事务ID变化一次。
服务器ID,zookeeper集群当中的机器都有一个ID,每台机器不重复,和myid保持一致。
准备 3 台服务器
20.0.0.10 ?zookeeper+kafka
20.0.0.11 ?zookeeper+kafka
20.0.0.12 ?zookeeper+kafka
部署 Zookeeper 集群
所有服务器
关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
安装 JDK
yum install -y java-1.8.0-openjdk java-1.8.0-openjdk-devel
java -version
安装 Zookeeper
cd /opt
tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz
mv apache-zookeeper-3.5.7-bin /opt/zookeeper
修改配置文件
cd /opt/zookeeper/conf/
cp zoo_sample.cfg zoo.cfg
vim zoo.cfg
tickTime=2000
#服务器与客户端之间心跳时间,2秒检测一次服务器和客户端之间的通信
initLimit=10
#领导者和追随者之间,初始连接时能够容忍的超时时间。10*2 20s
syncLimit=5
#同步超时时间,领导者和追随者之间,同步通信超时的时间,5*2s,leader会认为follower丢失,移除集群
dataDir=/opt/zookeeper/data
#修改,指定保存Zookeeper中的数据的目录,目录需要单独创建
dataLogDir=/opt/zookeeper/logs
#添加,指定存放日志的目录,目录需要单独创建
clientPort=2181 ??
#客户端连接端口
在最底行添加集群信息
server.1=20.0.0.10:3188:3288
server.2=20.0.0.11:3188:3288
server.3=20.0.0.12:3188:3288
server.1=20.0.0.10:3188:3288
1:每个zookeeper集群的初始myid。20.0.0.10:服务器的ip地址
3188:领导者和追随者之间交换信息的端口(内部通信的端口)
3288:一旦leader丢失响应,开启选举,3288就是用来执行选举时的服务器之间通信端口。
在每个节点上创建数据目录和日志目录
mkdir -p /opt/zookeeper/data
mkdir -p /opt/zookeeper/logs
在每个节点的dataDir指定的目录下创建一个 myid 的文件,不同节点分配1、2、3
echo 1 > /opt/zookeeper/data/myid
echo 2 > /opt/zookeeper/data/myid
echo 3 > /opt/zookeeper/data/myid
配置 Zookeeper 启动脚本
vim /etc/init.d/zookeeper
#!/bin/bash
#chkconfig:2345 20 90
#description:Zookeeper Service Control Script
ZK_HOME='/opt/zookeeper'
case $1 in
start)
echo "---------- zookeeper 启动 ------------"
$ZK_HOME/bin/zkServer.sh start
;;
stop)
echo "---------- zookeeper 停止 ------------"
$ZK_HOME/bin/zkServer.sh stop
;;
restart)
echo "---------- zookeeper 重启 ------------"
$ZK_HOME/bin/zkServer.sh restart
;;
status)
echo "---------- zookeeper 状态 ------------"
$ZK_HOME/bin/zkServer.sh status
;;
*)
????echo "Usage: $0 {start|stop|restart|status}"
esac
设置开机自启
chmod +x /etc/init.d/zookeeper
chkconfig --add zookeeper
分别启动 Zookeeper
service zookeeper start
#查看当前状态
service zookeeper status
?Kafka
#安装 Kafka
cd /opt/
tar zxvf kafka_2.13-2.7.0.tgz
mv kafka_2.13-2.7.0 kafka/
#修改配置文件
cd /opt/kafka/config/
vim server.properties
vim server.properties
21行
broker.id=1
#三台机器的id不能重复
28行
#声明监听端口和id。如果声明了broker.id,这一行可以默认不动
42行
num.network.threads=3
#处理网络请求的线程数量,默认即可
46行
num.io.threads=8
#处理磁盘的io线程数量,一定要比硬盘数大。默认即可
50行
socket.send.buffer.bytes=102400
#发送套接字的缓冲区大小。默认即可
54行
socket.receive.buffer.bytes=102400
#接收者的接受套接字缓冲区大小。默认即可
58行
socket.reques.max.bytes=104657600
#请求套接字的缓冲区大小。单位是字节
65行
log.idrs=/var/log/kafka
#指定日志路径
70行
num.partitions=1
#在此Kafka服务器上创建topic,如果不指定默认分区数。默认是1个如果指定了这个配置无效
75行
num.recovery.threads.per.data.dir=1
#用于恢复、回收、清理data下的数据的线程数量。Kafka默认不允许删除主题
110行
log.retention.hours=168
#生产者发布的数据文件在主题当中保存的时间
#168:单位是小时。默认是7天
130行
zookeeper.connect=20.0.0.12:2181,20.0.0.11:2181,20.0.0.12:2181
#配置连接zookeeper集群
其他两台机器修改id后
到65行修改日志信息
log.idrs=/var/log/kafka
到123行修改即可
zookeeper.connect=20.0.0.12:2181,20.0.0.11:2181,20.0.0.12:2181
#修改环境变量日志段是主题分区日志文件的一部分。
vim /etc/profile
export KAFKA_HOME=/opt/kafka
export PATH=$PATH:$KAFKA_HOME/bin
#立即生效
source /etc/profile
三台机器同时操作
创建启动文件脚本
vim /etc/init.d/kafka
#!/bin/bash
#chkconfig:2345 22 88
#description:Kafka Service Control Script
KAFKA_HOME='/opt/kafka'
case $1 in
start)
echo "---------- Kafka 启动 ------------"
${KAFKA_HOME}/bin/kafka-server-start.sh -daemon ${KAFKA_HOME}/config/server.properties
;;
stop)
echo "---------- Kafka 停止 ------------"
${KAFKA_HOME}/bin/kafka-server-stop.sh
;;
restart)
$0 stop
$0 start
;;
status)
echo "---------- Kafka 状态 ------------"
count=$(ps -ef | grep kafka | egrep -cv "grep|$$")
if [ "$count" -eq 0 ];then
????????echo "kafka is not running"
????else
????????echo "kafka is running"
????fi
;;
*)
????echo "Usage: $0 {start|stop|restart|status}"
esac
#设置开机自启
chmod +x /etc/init.d/kafka
chkconfig --add kafka
#分别启动 Kafka
service kafka start
#三台主机同步操作主机映射
vim /etc/hosts
20.0.0.10 test1
20.0.0.11 test2
20.0.0.12 test3
#随便选一台服务器创建topic
kafka-topics.sh --create --zookeeper 20.0.0.10:2181,20.0.0.11:2181,20.0.0.12:2181 --replication-factor 2 --partitions 3 --topic test1
#查看当前服务器中的所有 topic
kafka-topics.sh --list --zookeeper 20.0.0.10:2181,20.0.0.11:2181,20.0.0.12:2181
#查看某个 topic 的详情
?kafka-topics.sh ?--describe --zookeeper 20.0.0.10:2181,20.0.0.11:2181,20.0.0.12:2181
#发布消息
?kafka-console-producer.sh --broker-list 20.0.0.10:9092,20.0.0.11:9092,20.0.0.12:9092 ?--topic test1
>1
>2
>3
>4
#消费消息
?kafka-console-consumer.sh--bootstrap-server 20.0.0.10:9092,20.0.0.11:9092,20.0.0.12:9092 ?--topic test1 --from-beginning
>1
>2
>3
>4
--from-beginning:会把主题中以往所有的数据都读取出来
#修改分区数
kafka-topics.sh --zookeeper 20.0.0.10:2181,20.0.0.11:2181,20.0.0.12:2181?--alter --topic test1 --partitions 6
分区数越多,存储越多,并发量越快。一个分区两个副本即可
#删除 topic
kafka-topics.sh --delete --zookeeper 20.0.0.10:2181,20.0.0.11:2181,20.0.0.12:2181?--topic test1
此时命令执行后,只是打赏打上删除的标记,并没有完全删除。还是保存在元数据当中
为什么要引入消息队列(MQ),他也是一个中间件,在高并发环境下,同步请求来不及处理。来不及处理的请求会形成阻塞。
例如:数据库就会形成行锁或者表锁
请求线程满了超标了就会出现错误:too many connection
一旦报错too many connection就会引发整个系统雪崩。
此时消息队列的作用就显得至关重要
消息队列的作用:异步处理请求,流量削峰,应用解耦。
耦合:在软件系统当中,修改一个组件需要修改其他所有组件。这就是高度耦合。
低度耦合:修改一个对其他的组件影响不大,无需修改所有
解耦:
例如:A B C
解耦的核心作用就是降低组件之间的依赖性
只要通信保证,其他的修改不影响整个集群,每个组件可以的独立的扩展,修改,降低组件之间的依赖性。依赖点就是接口约束,通过不同的端口,保证集群通信。I
可恢复性:系统当中的有一部分组件消失,不影响整个系统。也就是说在消息队列当中,即使有一个处理消息的进程失败,一旦恢还可以重新加入到队列当中,继续处理消息。
可恢复性:系统当中的有一部分组件消失,不影响整个系统。也就是说在消息队列当中,即使有一个处理消息的进程失败,一旦恢复还可以重新加入到队列当中,继续处理消息。
缓冲:可以控制和优化数据经过系统的时间和速度。解决生产消息和消费消息处理速度不一致的问题。
峰值的处理能力:消息队列在峰值情况之下,能够顶住突发的访问压力。避免专门为了突发情况而对系统进行修改。
异步通信:允许用户把一个消息放入队列,但是不立即处理,等用户想处理的时候在处理。
消息区列的模式:
点对点一对一:消息的生产者发送消息到队列中,消费者从队列中提取消息,消费者提取完之后,队列中被提取的消息将会被移除。后续消费者不能再消费队列当中的消息。消息队列可以有多个消费者,但是一个消息,只能由一个消费者提取。
发布/订阅模式:一对多,又叫做观察者模式。消费者提取数据之后,队列当中的消息不会清除。
生产者发布一个消息到主题,所有消费者都是通过主题获取消息
主题: topic topic类似一个数据流的管道,生产者把消息发布到主题。消费者从主题当中订阅数据。主题可以分区,每个分区都有自己的偏移量。
分区: partition每个主题都可以分成多个分区。每个分区是数据的有序子集,分区可以允许kafka进行水平拓展,以处理大量数据。消息在分钟按照偏移量存储,消费者可以独立读取每个分区的数据。
偏移量:是每个消息在分区中唯一的标识。消费者可以通过便宜量来跟踪获取已读或者未读消息的位置。也可以提交偏移量来记录已处理的信息。
生产者: producer生产者把数据发送kafka的主题当中,负责写入消息。
消费者: consumer从主题当中读取数据.消费者可以是一个也可以是多个。每个消费者有一个唯一的消费者组ID,kafka通过消费者实现负载均衡和容错性。
经纪人:Broker 每个kafka节点都有一个Broker,每个负责一台kafka服务器,id唯一,存储主题分区当中数据,处理生产和消费者的请求。维护元数据(zookeeper)
zookeeper:zookeeper负责保存元数据,元数据就是topic的相关信息(发在哪台主机上,指定了多少分区,以及副本数,偏移量。)
zookeper自建一个注意:_consumer_offsets
3.0之后不依赖zookeeper的核心,元数据由kafka节点自己管理
kafka的工作流程:
1、 生产者向主题topic中发送数据。数据会按照分区依次保存在不同的分区中。分区的偏移量是从0开始
2、 消费者从开始位置消费,只能获取到test1数据
3、 消费者实时消费则会获取到最新的test2数据
4、 此时生产者写入新的数据test3。这时消费者停止消费请求。此时test3会持久化。(生产者写入topic的数据是持久化的,默认是7小时)此时消费者再次开启消费请求,则可以访问到test3。持久化时间过期后则访问不到test3数据。
Kafka也支持延时发送
至少一次语义:只要消费者进入,确保消息至少被消费一次
总结
1、 zookeeper主要是分布式、观察者模式,统一各个服务器节点的数据。在Kafka当中,手机保存Kafka的元数据
2、 Kafka消息队列:是订阅发布模式
Kafka:速度快,资源占用量高
RABBIT MQ:轻量级
3、 Kafka的组件:
主题:topic。一个主题就相当于1个微信群。
分区:处理消息的位置
偏移量:消息产生的时间位置
生产者:产生数据
消费者:消费数据
经纪人:负责管理生产者发布的数据
创建主题一定要有分区,创建分区一定要有副本
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!