欢迎来到飞鸟慕鱼博客,开始您的技术之旅!
当前位置: 首页知识笔记正文

尚硅谷培训机构怎么样,尚硅谷培训出来的都能找到工作吗

终极管理员 知识笔记 64阅读

目录

概述

⛹定义

​编辑⛹消息队列

‍♂️消息队列应用场景

​编辑‍♂️两种模式点对点、发布订阅

​编辑⛹基本概念

Kafka安装

⛹ zookeeper安装

⛹集群规划

​编辑⛹流程

⛹原神启动

‍♂️批量脚本

⛹topics常规操作

⛹生产者命令行操作 

⛹消费者命令行操作 

生产者

⛹生产者消息发送

⛹异步发送api

‍♂️普通异步发送 

‍♂️回调异步发送

⛹同步发送

⛹分区 

‍♂️分区策略

‍♂️自定义分区

⛹提高吞吐量

⛹数据可靠性Ack

‍♂️0 1 -1三个应答毛病

‍♂️去重

‍♂️事务

⛹有序

Broker

‍Broker 工作流程 

‍♂️Zookeeper 存储的 Kafka 信息 

‍♂️总体工作流程

‍Kafka 副本

副本基本信息 

Leader 选举流程

整理思路

follower挂了

leader寄了

分区副本分配

Leader Partition 负载平衡 

‍文件存储

‍♂️存储机制 

Topic 数据的存储机制

文件清理策略 

‍高效读写数据 

Kafka 消费者 

‍消费方式 pull

‍Kafka 消费者工作流程 

消费者组原理 

消费流程

‍消费案例

消费一个主题

消费一个分区

消费者组

‍分区的分配策略、再平衡

‍offset 位移

‍消费者事务

‍数据积压消费者如何提高吞吐量

Kafka-Eagle 监控

安装 改配置

Kafka-Kraft 模式

优点

安装配置

概述 ⛹定义

        Kafka传统定义Kafka是一个分布式的基于发布/订阅模式的消息队列Message Queue主要应用于大数据实时处理领域。发布/订阅消息的发布者不会将消息直接发送给特定的订阅者而是将发布的消息分为不同的类别订阅者只接收感兴趣的消息。

        Kafka 最新定义Kafka 是一个开源的分布式事件流平台Event Streaming Platform被数千家公司用于高性能数据管道、流分析、数据集成和关键任务应用。

⛹消息队列 ‍♂️消息队列应用场景

缓存/消峰

解耦允许你独立的扩展或修改两边的处理过程只要确保它们遵守同样的接口约束。

异步通信允许用户把一个消息放入队列但并不立即处理它然后在需要的时候再去处理它们。

‍♂️两种模式点对点、发布订阅

1.为方便扩展并提高吞吐量一个topic分为多个partition

2.配合分区的设计提出消费者组的概念组内每个消费者并行消费

3.为提高可用性为每个partition增加若干副本类似NameNode HA

4. ZK中记录谁是leaderKafka2.8.0以后也可以配置不采用ZK

⛹基本概念

1Producer消息生产者就是向 Kafka broker 发消息的客户端。

2Consumer消息消费者向Kafka broker 取消息的客户端。

3Consumer GroupCG消费者组由多个 consumer 组成。消费者组内每个消费者负责消费不同分区的数据一个分区只能由一个组内消费者消费消费者组之间互不影响。所有的消费者都属于某个消费者组即消费者组是逻辑上的一个订阅者。

4Broker一台 Kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个broker 可以容纳多个topic。

5Topic可以理解为一个队列生产者和消费者面向的都是一个 topic。

6Partition为了实现扩展性一个非常大的 topic 可以分布到多个 broker即服务器上一个topic 可以分为多个 partition每个partition 是一个有序的队列。

7Replica副本。一个 topic 的每个分区都有若干个副本一个 Leader 和若干个Follower。

8Leader每个分区多个副本的“主”生产者发送数据的对象以及消费者消费数据的对象都是Leader。

9Follower每个分区多个副本中的“从”实时从 Leader 中同步数据保持和Leader 数据的同步。Leader 发生故障时某个Follower 会成为新的Leader。

Kafka安装 ⛹ zookeeper安装

zookeeper目前只有安装-博客

⛹集群规划

不是每个都要zk

⛹流程

下载

官网安装地址Apache Kafka

本文使用kafka_2.12-3.0.0

解压

tar -zxvf kafka_2.12-3.0.0.tgz -C /export/server/

改配置

cd configvim server.properties# The id of the broker. This must be set to a unique integer for each broker.# 这里三个节点都要有自己的id不能重复hadoop1是0hadoop2是1hadoop3是2broker.id1# A comma separated list of directories under which to store log files# 日志数据不能放到tmp临时目录自己指定一个log.dirs/export/server/kafka/log############################# Zookeeper ############################## Zookeeper connection string (see zookeeper docs for details).# This is a comma separated host:port pairs, each corresponding to a zk# server. e.g. 127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002.# You can also append an optional chroot string to the urls to specify the# root directory for all kafka znodes.zookeeper.connecthadoop1:2181,hadoop2:2181,hadoop3:2181/kafka:wq

fenfa

fenfa到另外两个集群修改id为2和3

环境变量/etc/profile也分发

# kafkaexport KAFKA_HOME/export/server/kafkaexport PATH$PATH:$KAFKA_HOME/bin
⛹原神启动

启动kafka之前要先启动zk

zk startbin/kafka-server-start.sh -daemon config/server.properties

关闭的时候要先关kafka先关zoo的话会关不掉kafka 

注意停止 Kafka 集群时一定要等 Kafka 所有节点进程全部停止后再停止 Zookeeper集群。因为 Zookeeper 集群当中记录着 Kafka 集群相关信息Zookeeper 集群一旦先停止Kafka 集群就没有办法再获取停止进程的信息只能手动杀死Kafka 进程了

‍♂️批量脚本
case $1 instart)    for i in hadoop1 hadoop2 hadoop3    do        echo   Kafka-3.0.0 $i start         ssh $i /export/server/kafka/bin/kafka-server-start.sh -daemon /export/server/kafka/config/server.properties    done    ;;stop)    for i in hadoop1 hadoop2 hadoop3    do        echo   Kafka-3.0.0 $i stop         ssh $i /export/server/kafka/bin/kafka-server-stop.sh    done    ;;*)    echo Usage: $0 {start|stop}    ;;esac
⛹topics常规操作

查看操作主题命令参数

bin/kafka-topics.sh 

查看当前服务器中的所有 topic

bin/kafka-topics.sh --bootstrap-server hadoop1:9092 --list

创建first topic

bin/kafka-topics.sh --bootstrap-server hadoop1:9092 --create --partitions 1 --replication-factor 3 --topic first

查看first 主题的详情

bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe --topic first

修改分区数注意分区数只能增加不能减少

bin/kafka-topics.sh --bootstrap-server hadoop1:9092 --alter --topic first --partitions 3

再次查看first 主题的详情

bin/kafka-topics.sh --bootstrap-server hadoop1:9092 --describe --topic first

删除topic

[atguiguhadoop102 kafka]$ bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --delete --topic first

⛹生产者命令行操作 

查看操作生产者命令参数 
[atguiguhadoop102 kafka]$ bin/kafka-console-producer.sh 

bin/kafka-console-producer.sh --bootstrap-server hadoop1:9092 --topic first 
>hello world 
>atguigu  atguigu 

⛹消费者命令行操作 

1查看操作消费者命令参数 
[atguiguhadoop102 kafka]$ bin/kafka-console-consumer.sh

费消息 
1消费first 主题中的数据。 

[atguiguhadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop1:9092 --topic first 

2把主题中所有的数据都读取出来包括历史数据。 

[atguiguhadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --from-beginning --topic first

生产者 ⛹生产者消息发送

        在消息发送的过程中涉及到了两个线程——main 线程和 Sender 线程。在 main 线程中创建了一个双端队列 RecordAccumulator。main 线程将消息发送给 RecordAccumulatorSender 线程不断从 RecordAccumulator 中拉取消息发送到 Kafka Broker

参数

⛹异步发送api ‍♂️普通异步发送 

1需求创建 Kafka 生产者采用异步的方式发送到 Kafka Broker 

一边汇报完成了一边在队列执行

    public static void main(String[] args) {        // TODO 创建生产者对象        Properties conf  new Properties();//        指定集群        // public static final String BOOTSTRAP_SERVERS_CONFIG  bootstrap.servers;        conf.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, hadoop1:9092,hadoop2:9092);//        指定序列化器        conf.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());//        conf.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, org.apache.kafka.common.serialization.StringSerializer);        conf.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());        KafkaProducer<String, String> producer  new KafkaProducer<>(conf);        // TODO 发送数据        for (int i  0; i < 5; i) {            producer.send(new ProducerRecord<>(first, yuangei));        }        // TODO 关闭资源        producer.close();    }

在 hadoop1 上开启 Kafka 消费者。 

bin/kafka-console-consumer.sh --bootstrap-server hadoop1:9092 --topic first 

‍♂️回调异步发送

        回调函数会在 producer 收到 ack 时调用为异步调用该方法有两个参数分别是元数据信息RecordMetadata和异常信息Exception如果 Exception 为 null说明消息发送成功如果 Exception 不为 null说明消息发送失败。 

        // TODO 发送数据        for (int i  0; i < 5; i) {            producer.send(new ProducerRecord<>(first, yuange  i), new Callback() {                Override                public void onCompletion(RecordMetadata metadata, Exception exception) {                    if (exception  null){                        System.out.println(topic:metadata.topic() part:metadata.partition());                    }                }            });        }
⛹同步发送

只需在异步发送的基础上再调用一下 get()方法即可。 

        // TODO 发送数据        for (int i  0; i < 5; i) {            producer.send(new ProducerRecord<>(first, yuange  i)).get();        }
⛹分区 

1便于合理使用存储资源每个Partition在一个Broker上存储可以把海量的数据按照分区切割成一块一块数据存储在多台Broker上。合理控制分区的任务可以实现负载均衡的效果。 

2提高并行度生产者可以以分区为单位发送数据消费者可以以分区为单位进行消费数据。 

‍♂️分区策略
        // TODO 发送数据        for (int i  0; i < 20; i) {            producer.send(new ProducerRecord<>(first, yuange  i), new Callback() {                Override                public void onCompletion(RecordMetadata metadata, Exception exception) {                    System.out.println(topic:metadata.topic() part:metadata.partition());                }            });            Thread.sleep(2);        }

 指定2毫秒 超时重新选择分区了

‍♂️自定义分区

‍♂️实现类

public class MyPartitioner implements Partitioner {    Override    public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {        String s  value.toString();        int part  0;        if(s.contains(yuange)){            part  0;        }else{            part  1;        }        return part;    }    Override    public void close() {    }    Override    public void configure(Map<String, ?> configs) {    }}

实现

    public static void main(String[] args) throws InterruptedException {        // TODO 创建生产者对象        Properties conf  new Properties();//        指定集群        // public static final String BOOTSTRAP_SERVERS_CONFIG  bootstrap.servers;        conf.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, hadoop1:9092,hadoop2:9092);//        指定序列化器        conf.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());//        conf.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, org.apache.kafka.common.serialization.StringSerializer);        conf.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());        conf.put(ProducerConfig.PARTITIONER_CLASS_CONFIG, org.example.kafka.implement.MyPartitioner);        KafkaProducer<String, String> producer  new KafkaProducer<>(conf);        // TODO 发送数据        for (int i  0; i < 20; i) {            if (i%2  0){                String value  yuange  i;                producer.send(new ProducerRecord<>(first, value), new Callback() {                    Override                    public void onCompletion(RecordMetadata metadata, Exception exception) {                        System.out.println(topic:metadata.topic() part:metadata.partition()value);                    }                });            }else {                String value  cxk-  i;                producer.send(new ProducerRecord<>(first, value), new Callback() {                    Override                    public void onCompletion(RecordMetadata metadata, Exception exception) {                        System.out.println(topic:metadata.topic() part:metadata.partition()value);                    }                });            }        }        // TODO 关闭资源        producer.close();    }
⛹提高吞吐量

batch.size批次大小默认16k 
linger.ms等待时间修改为5-100ms 这两个同时生效满足一个

compression.type压缩snappy 弹幕说解压影响性能
RecordAccumulator缓冲区大小修改为64m 

        // 缓冲区大小        conf.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 32*1024*1024);        // 批次大小        conf.put(ProducerConfig.BATCH_SIZE_CONFIG, 16*1024);        // linger.ms        conf.put(ProducerConfig.LINGER_MS_CONFIG, 1);        // 压缩?        conf.put(ProducerConfig.COMPRESSION_TYPE_CONFIG, snappy);        KafkaProducer<String, String> producer  new KafkaProducer<String, String>(conf);
⛹数据可靠性Ack ‍♂️0 1 -1三个应答毛病

        思考Leader收到数据所有Follower都开始同步数据但有一 个Follower因为某种故障迟迟不能与Leader进行同步那这个问 题怎么解决呢

        Leader维护了一个动态的in-sync replica setISR意为和Leader保持同步的FollowerLeader集合(leader0isr:0,1,2)。 如果Follower长时间未向Leader发送通信请求或同步数据则该Follower将被踢出ISR。该时间阈值由replica.lag.time.max.ms参数设定默认30s。例如2超时(leader:0, isr:0,1)

数据完全可靠条件 ACK级别设置为-1 分区副本大于等于2 ISR里应答的最小副本数量大于等于2

acks0生产者发送过来数据就不管了可靠性差效率高 acks1生产者发送过来数据Leader应答可靠性中等效率中等 acks-1生产者发送过来数据Leader和ISR队列里面所有Follwer应答可靠性高效率低 

acks0很少使用

acks1一般用于传输普通日志允许丢个别数据

acks-1一般用于传输和钱相关的数据 对可靠性要求比较高的场景。

        conf.put(ProducerConfig.ACKS_CONFIG, 1);        conf.put(ProducerConfig.RETRIES_CONFIG, 3);

数据会重复之后解决

‍♂️去重

• 至少一次At Least Once ACK级别设置为-1 分区副本大于等于2 ISR里应答的最小副本数量大于等于2 可以保证数据不丢失但是不能保证数据不重复

• 最多一次At Most Once ACK级别设置为0 可以保证数据不重复但是不能保证数据不丢失。 

• 精确一次Exactly Once对于一些非常重要的信息比如和钱相关的数据要求数据既不能重复也不丢失。 

Kafka 0.11版本以后引入了一项重大特性幂等性和事务。

        幂等性就是指Producer不论向Broker发送多少次重复数据Broker端都只会持久化一条保证了不重复。 

        重复数据的判断标准具有<PID, Partition, SeqNumber>相同主键的消息提交时Broker只会持久化一条。其中PID是Kafka每次重启都会分配一个新的Partition 表示分区号Sequence Number是单调自增的。 所以幂等性只能保证的是在单分区单会话内不重复。 

开启参数 enable.idempotence 默认为 truefalse 关闭

‍♂️事务
        conf.put(ProducerConfig.TRANSACTIONAL_ID_CONFIG, shiwuid-01);        KafkaProducer<String, String> producer  new KafkaProducer<String, String>(conf);        producer.initTransactions();        producer.beginTransaction();        try {            // TODO 发送数据            for (int i  0; i < 10; i) {                producer.send(new ProducerRecord<>(first, valuei));                Thread.sleep(300);            }            producer.send(new ProducerRecord<>(first, ----------));            producer.commitTransaction();  // 提交事务        }catch (Exception e){            producer.abortTransaction();  // 终止事务        }
⛹有序

1 kafka在1.x版本之前保证数据单分区有序条件如下 
max.in.flight.requests.per.connection1不需要考虑是否开启幂等性

2 kafka在1.x及以后版本保证数据单分区有序条件如下 
1未开启幂等性 
max.in.flight.requests.per.connection需要设置为1。 
2开启幂等性 
max.in.flight.requests.per.connection需要设置 ≤ 5。 
原因说明因为在kafka1.x以后启用幂等后kafka服务端会缓存producer发来的最近5个request的元数据 故无论如何都可以保证最近5个request的数据都是有序的。seqence

Broker ‍Broker 工作流程  ‍♂️Zookeeper 存储的 Kafka 信息 

bin/zkCli.sh 

通过 ls 命令可以查看 kafka 相关信息。 

‍♂️总体工作流程 ‍Kafka 副本 副本基本信息 

1Kafka 副本作用提高数据可靠性。 
2Kafka 默认副本 1 个生产环境一般配置为 2 个保证数据可靠性太多副本会增加磁盘存储空间增加网络上数据传输降低效率。 
3Kafka 中副本分为Leader 和 Follower。Kafka 生产者只会把数据发往 Leader然后 Follower 找 Leader 进行同步数据。 

4Kafka 分区中的所有副本统称为 ARAssigned Repllicas。

AR ISR OSR ISR表示和 Leader 保持同步的 Follower 集合。如果 Follower 长时间未向 Leader 发送通信请求或同步数据则该 Follower 将被踢出 ISR。该时间阈值由 replica.lag.time.max.ms 参数设定默认 30s。Leader 发生故障之后就会从 ISR 中选举新的 Leader。 OSR表示 Follower 与 Leader 副本同步时延迟过多的副本 Leader 选举流程

        Kafka 集群中有一个 broker 的 Controller 会被选举为 Controller Leader负责管理集群broker 的上下线所有 topic 的分区副本分配和 Leader 选举等工作。

        Controller 的信息同步工作是依赖于 Zookeeper 的。

1. kafka每启动一个集群就会在zk里面注册每个broker都有一个controller

2. 谁先注册好谁就是controller

3. leader监听所有的broker

4. 选举出来的controller选举leader

5. leader自己的信息在zk也有一个空间

6. 其他follower从这个空间拉取leader信息

7. 1号leader寄

8. 重新选举leader下一个就是0

整理思路

一个分区分好几个块leader、follower都是拿分区说事

leader是负责在生产者和消费者中间交互的

follower挂了

两个概念:

LEOLog End Offset每个副本的最后一个offsetLEO其实就是最新的offset 1。 
HWHigh Watermark所有副本中最小的LEO 

讲到这了突然特么来了一句消费者只能拉取到HW

leader寄了

人话

        leader寄了之后选出来一个follower作为新leader以这个新的leader目前有的数据量为基准多了给扔掉不能比新王多但是数据丢掉了

分区副本分配

就是一种负载均衡

Leader Partition 负载平衡 

有平衡的机制

‍文件存储 ‍♂️存储机制  Topic 数据的存储机制

        Topic是逻辑上的概念而partition是物理上的概念每个partition对应于一个log文件该log文件中存储的就是Producer生产的数据。Producer生产的数据会被不断追加到该log文件末端为防止log文件过大导致数据定位效率低下Kafka采取了分片和索引机制将每个partition分为多个segment。每个segment包括“.index”文件、“.log”文件和.timeindex等文件。这些文件位于一个文件夹下该文件夹的命名规则为topic名分区序号例如first-0。 

存在KAFKA_HOME/datas下 

1.index为稀疏索引大约每往log文件写入4kb数据会往index文件写入一条索引。 
参数log.index.interval.bytes默认4kb

2.Index文件中保存的offset为相对offset这样能确保offset的值所占空间不会过大
因此能将offset的值控制在固定大小 

文件清理策略 

Kafka 中默认的日志保存时间为 7 天可以通过调整如下参数修改保存时间。 

log.retention.hours最低优先级小时默认 7 天。 
log.retention.minutes分钟。 
log.retention.ms最高优先级毫秒。 
log.retention.check.interval.ms负责设置检查周期默认 5 分钟。 

log.retention.bytes默认等于-1表示无穷大。 

清理策略有 delete 和 compact 两种。

1delete 日志删除将过期数据删除 
⚫ log.cleanup.policy delete 所有数据启用删除策略 

        1基于时间默认打开。以 segment 中所有记录中的最大时间戳作为该文件时间戳。 
        2基于大小默认关闭。超过设置的所有日志总大小删除最早的 segment。 

2compact 日志压缩 

compact日志压缩对于相同key的不同value值只保留最后一个版本。 
⚫ log.cleanup.policy compact 所有数据启用压缩策略 

        压缩后的offset可能是不连续的比如上图中没有6当从这些offset消费消息时将会拿到比这个offset大 的offset对应的消息实际上会拿到offset为7的消息并从这个位置开始消费。 

        这种策略只适合特殊场景比如消息的key是用户IDvalue是用户的资料通过这种压缩策略整个消息集里就保存了所有用户最新的资料。 

‍高效读写数据  Kafka 本身是分布式集群可以采用分区技术并行度高 读数据采用稀疏索引可以快速定位要消费的数据 顺序写磁盘同样的磁盘顺序写能到 600M/s而随机写只有 100K/s。这与磁盘的机械机构有关顺序写之所以快是因为其省去了大量磁头寻址的时间。 页缓存 零拷贝技术 零拷贝Kafka的数据加工处理操作交由Kafka生产者和Kafka消费者处理。Kafka Broker应用层不关心存储的数据所以就不用走应用层传输效率高。 
PageCache页缓存Kafka重度依赖底层操作系统提供的PageCache功能。当上层有写操作时操作系统只是将数据写入PageCache。当读操作发生时先从PageCache中查找如果找不到再去磁盘中读取。实际上PageCache是把尽可能多的空闲内存都当做了磁盘缓存来使用。  Kafka 消费者  ‍消费方式 pull

pull拉模式 
consumer采用从broker中主动拉取数据。 
Kafka采用这种方式。不足之处是如果Kafka没有数据消费者可能会陷入循环中一直回空数据。 

push推模式

Kafka没有采用这种方式因为由broker 决定消息发送速率很难适应所有消费者的消费速率。例如推送的速度是50m/s Consumer1、Consumer2就来不及处理消息。 

‍Kafka 消费者工作流程  消费者组原理 

        Consumer GroupCG消费者组由多个consumer组成。形成一个消费者组的条件是所有消费者的groupid相同。 

        消费者组内每个消费者负责消费不同分区的数据一个分区只能由一个组内消费者消费。 消费者组之间互不影响。所有的消费者都属于某个消费者组即消费者组是逻辑上的一个订阅者。

1、coordinator辅助实现消费者组的初始化和分区的分配。 
        coordinator节点选择 groupid的hashcode值 % 50 __consumer_offsets的分区数量 
例如 groupid的hashcode值 11% 50 1那么__consumer_offsets 主题的1号分区在哪个broker上就选择这个节点的coordinator作为这个消费者组的老大。消费者组下的所有的消费者提交offset的时候就往这个分区去提交offset。 

消费流程 ‍消费案例 消费一个主题
    public static void main(String[] args) throws InterruptedException {        Properties conf  new Properties();        conf.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, hadoop1:9092);        conf.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());        conf.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class.getName());        conf.put(ConsumerConfig.GROUP_ID_CONFIG, test);        KafkaConsumer<String, String> consumer  new KafkaConsumer<String, String>(conf);        ArrayList<String> topics  new ArrayList<>();        topics.add(first);        consumer.subscribe(topics);  // 这意味着消费者将开始从指定的主题接收消息并进行处理        while (true){            ConsumerRecords<String, String> consumerRecords  consumer.poll(Duration.ofSeconds(1));            for (ConsumerRecord<String, String> rec : consumerRecords){                System.out.println(rec);            }        }    }
消费一个分区

上面分配分区改为

消费者组

nb就是把上面那个指定分配分区的复制三份只要groupid相同就是一个逻辑组

‍分区的分配策略、再平衡

Q一个consumer group中有多个consumer组成一个 topic有多个partition组成现在的问题是到底由哪个consumer来消费哪个 partition的数据


AKafka有四种主流的分区分配策略 Range、RoundRobin、Sticky、CooperativeSticky。

可以通过配置参数partition.assignment.strategy修改分区的分配策略。

默认策略是Range CooperativeSticky。

Kafka可以同时使用多个分区分配策略。 

Range 以及再平衡

Range 是对每个 topic 而言的。 首先对同一个 topic 里面的分区按照序号进行排序并对消费者按照字母顺序进行排序。 

假如现在有 7 个分区3 个消费者排序后的分区将会是0,1,2,3,4,5,6消费者排序完之后将会是C0,C1,C2。 

但是如果有 N 多个 topic那么针对每个 topic消费者 C0都将多消费 1 个分区topic越多C0消费的分区会比其他消费者明显多消费 N 个分区

再分配消费者 0 已经被踢出消费者组所以重新按照 range 方式分配。 

RoundRobin 以及再平衡 

RoundRobin 针对集群中所有Topic而言。 
RoundRobin 轮询分区策略是把所有的 partition 和所有的consumer 都列出来然后按照hashcode 进行排序最后通过轮询算法来分配 partition 给到各个消费者。 

Sticky 以及再平衡 

粘性分区定义在执行一次新的分配之前 考虑上一次分配的结果尽量少的调整分配的变动可以节省大量的开销。 

        首先会尽量均衡的放置分区到消费者上面在出现同一消费者组内消费者出现问题的时候会尽量保持原有分配的分区不变化。 

1停止掉 0 号消费者快速重新发送消息观看结果45s 以内越快越好。 

1号消费者消费到 2、5、3 号分区数据。 
2号消费者消费到 4、6 号分区数据。 
0号消费者的任务会按照粘性规则尽可能均衡的随机分成 0 和 1 号分区数据分别由 1 号消费者或者 2 号消费者消费。 

to

1号消费者消费到 2、3、5 号分区数据。 
2号消费者消费到 0、1、4、6 号分区数据。 

‍offset 位移

__consumer_offsets 主题里面采用 key 和 value 的方式存储数据。key 是 group.idtopic 分区号value 就是当前 offset 的值。每隔一段时间kafka 内部会对这个 topic 进行compact也就是每个 group.idtopic分区号就保留最新数据

‍消费者事务

如果想完成Consumer端的精准一次性消费那么需要Kafka消费端将消费过程和提交offset过程做原子绑定。此时我们需要将Kafka的offset保存到支持事务的自定义介质比如MySQL

‍数据积压消费者如何提高吞吐量 Kafka-Eagle 监控

Kafka-Eagle 框架可以监控 Kafka 集群的整体运行情况在生产环境中经常使用。 

安装 改配置

修改KAFKA_HOME/bin/kafka-server-start.sh

其中一段改为分发

if [ x$KAFKA_HEAP_OPTS  x ]; then        export KAFKA_HEAP_OPTS-server -Xms2G -Xmx2G -XX:PermSize128m -XX:UseG1GC -XX:MaxGCPauseMillis200 -XX:ParallelGCThreads8 -XX:ConcGCThreads5  -XX:InitiatingHeapOccupancyPercent70        export JMX_PORT9999# export KAFKA_HEAP_OPTS-Xmx1G -Xms1Gfi

Kafka-Eagle 安装 

解压两重tar文件到自己的目录

修改配置文件 HOME/conf/system-config.properties 

####################################### multi zookeeper & kafka cluster list # Settings prefixed with kafka.eagle. will be deprecated, use efak. instead#######################################efak.zk.cluster.aliascluster1cluster1.zk.listhadoop1:2181,hadoop:2181,hadoop3:2181/kafka##################################### # kafka offset storage ##################################### # offset保存在 kafka cluster1.efak.offset.storagekafka# 配置 mysql连接 efak.drivercom.mysql.jdbc.Driver efak.urljdbc:mysql://hadoop102:3306/ke?useUnicodetrue&characterEncodingUTF-8&zeroDateTimeBehaviorconvertToNull efak.usernameroot efak.password123456

幻景变量

# kafkaEFAK export KE_HOME/opt/module/efak export PATH$PATH:$KE_HOME/bin 

原神启动

启动之前需要先启动 ZK 以及 KAFKA。

[2023-10-23 11:18:02] INFO: Port Progress: [##################################################] | 100%[2023-10-23 11:18:06] INFO: Config Progress: [##################################################] | 100%[2023-10-23 11:18:09] INFO: Startup Progress: [##################################################] | 100%[2023-10-23 11:17:59] INFO: Status Code[0][2023-10-23 11:17:59] INFO: [Job done!]Welcome to    ______    ______    ___     __ __   / ____/   / ____/   /   |   / //_/  / __/     / /_      / /| |  / ,<    / /___    / __/     / ___ | / /| |  /_____/   /_/       /_/  |_|/_/ |_|  ( Eagle For Apache Kafka® )Version 2.0.8 -- Copyright 2016-2021******************************************************************** EFAK Service has started success.* Welcome, Now you can visit  Account:admin ,Password:123456******************************************************************** <Usage> ke.sh [start|status|stop|restart|stats] </Usage>* <Usage>  </Usage>*******************************************************************[roothadoop1 efak]# 

登录页面查看监控数据 

Kafka-Kraft 模式 优点

干掉了zk

左图为 Kafka 现有架构元数据在 zookeeper 中运行时动态选举 controller由controller 进行 Kafka 集群管理。右图为 kraft 模式架构实验性不再依赖 zookeeper 集群 而是用三台 controller 节点代替 zookeeper元数据保存在 controller 中由 controller 直接进行 Kafka 集群管理。 

Kafka 不再依赖外部框架而是能够独立运行 controller 管理集群时不再需要从 zookeeper 中先读取数据集群性能上升 由于不依赖 zookeeper集群扩展时不再受到 zookeeper 读写能力限制 controller 不再动态选举而是由配置文件规定。这样我们可以有针对性的加强 controller 节点的配置而不是像以前一样对随机 controller 节点的高负载束手无策。  安装配置

重新解压一个新的kafka安装包

cd /export/server/kafka2/config/kraft/

vim server.properties

# The node id associated with this instances roles
node.id1、2、3三个集群分别分别分别设置不同的id

# The connect string for the controller quorum每个都这么设
controller.quorum.voters1hadoop1:9093,2hadoop2:9093,3hadoop3:9093


advertised.listenersPLAINTEXT://hadoop1、2、3:9092三个分别设

# A comma separated list of directories under which to store log files 日志目录改了
log.dirs/export/server/kafka2/datas

分发

初始化集群数据目录 

bin/kafka-storage.sh random-uuid

omVzwxZORTqQuFNIFX8Rnw

用该 ID 格式化 kafka 存储目录三台节点

bin/kafka-storage.sh format -t J7s9e8PPTKOO47PxzI39VA -c /opt/module/kafka2/config/kraft/server.properties

缘神启动 

bin/kafka-server-start.sh -daemon config/kraft/server.properties

标签:
声明:无特别说明,转载请标明本文来源!