java系统找不到指定文件怎么解决
285
2022-09-26
【重难点】Kafka知识总结(文档、组成及架构,配置,常见名词解释,命令行及api操作,官方文档内容,各部分深入,zookeeper和security,监控和运维)
〇、相关资料
1、快速搭建文档:
2、详细讲义
3、在线官方文档:(1,2,4,5)
一、基本介绍
1、概念
分布式的、基于发布/订阅模式的数据流式传输平台消息队列的5种工作模式:特点:流式数据、集群方式运行、容错方式存储、消息及时处理、通过保留期限参数持久化保存发布的记录、副本机制消息记录的组成:键、值、时间戳
2、架构
3、项目目录
4、配置文件详解
server.properties javascript:void(0)
生产者与消费者 javascript:void(0)
二、概念/参数/特性详解
1、常见名词解释
基本组成
BrokerTopicPartition:一个partition只能被一个consumer消费
LeaderFollower
ProducerConsumer
Offsetlog
Consumer Group:对同一个topic的多个consumer,GC内的多个consumer会进行负载均衡【消息可能会发送到一个组(单播)或多个组(广播)】
Quotas:配额,控制客户端使用的代理资源,避免流量超过阈值从而降低用户体验,会根据user和client进行设置
使用kafka-configs.sh命令行进行设置
认证方式
PLAINTEXT:明文/纯文本,在broker客户端配置kafka_server_jaas.conf认证信息,是无安全认证的监听方式SSL:Secure Sockets Layer,安全套接字协议(密文)SASL:Simple Authentication and Security Layer,简单认证和安全层,SASL_PLAINTEXT/SASL_SSL是有安全认证的监听方式,SASL可以使用PLAIN和SCRAM机制
PLAIN:明文,只需要在JAAS中配置server和client的认证信息
JAAS:Java Authentication and Authorization Service,Java认证和授权服务,需要在客户端中配置kafka_client_jaas.conf文件,配置明文认证信息KafkaClient
SCRAM:Salted Challenge Response Authentication Mechanism,盐化的质询响应认证机制,可以不用重启就能新增用户,与PLAIN是两种常用的权限认证方式
只能使用安全传输层协议TLS,Transport Layer Security,配置JAAS文件的同时使用命令行设置认证方式通过 SCRAM-SHA-256【Strong Hash,强密码和强迭代技术】和SCRAM-SHA-512两种安全认证方式配合TLS完成安全权限认证
ACL:用户权限控制/访问控制列表,一种权限认证方式
需要配置allow.everyone.if.no.acl.found=true【如果无ACL权限控制,就允许任意用户进行访问】通过kafka-acls.sh对用户/主机/principal主体设置读写等权限
Multi-tenancy:多租户模式,可以实现用户空间、集群共享,权限认证关系:SASL(_PLAINTEXT)安全认证,需要先配置broker和client的JAAS文件,可以使用PLAIN(只需要配置jaas即可)/SCRAM(包含两种安全认证/加密方式,配置jaas+命令行添加配置)进行加密【jaas+命令行】
三、使用
1、命令行操作(见文档)
安装与配置启动停止topic的CRUD消息的生产消费
2、Kafka Client API操作
3、Producer API
异步发送包括两个线程:main线程和sender线程
main将消息发送到RecordAccumulator,sender从RecordAccumulator拉取到broker包含带回调函数的api和不带回调函数的apiproducer收到ack时调用,ProducerRecord构造中多一个参数--Callback的匿名内部类的onCompletion方法
同步发送API
发送消息后阻塞进程,直至返回ack方式:producer.send()后加.get()
4、Consumer API
Kafka数据持久化,不会丢失消费者需要考虑对offset的维护
自动提交offset:参数--enable、interval.ms时间间隔
缺陷:基于时间,无法把握时机
手动提交offset
分为commitSync(同步提交)和commitAsync(异步提交)同步提交阻塞进程直至成功,自动失败重试,可靠,但吞吐量受影响异步提交无失败重试。两种方式均可能导致数据漏消费(先提交后消费)或重复消费(先消费后提交)
5、自定义Interceptor拦截器
对client的定制化逻辑控制
在消息发送前或producer回调逻辑前对消息做定制化需求可以指定多个Interceptor形成拦截器链
实现接口是ProducerInterceptor,包括configure、onSend(可以对消息进行操作)、onAcknowledgement(成功或失败时调用)、close方法配置对象prop.put(interceptorsList)
6、官方文档内容
快速入门常用API(需要导入的maven包)配置(不同属性描述)设计(ISR、log、Partition的副本Replica机制、配额Quota)实施(消息记录格式头、集群结构)常见操作(多租户)安全(SSL/SASL/授权/ACL)Kafka连接(Java连接函数)Kafka流
五、深入介绍
1、工作流程
topic即目录,partition是物理概念,与log一一对应log存储生产的数据,数据会追加到log/partition末尾,通过offset记录索引consumer会实时记录offset,便于出错时恢复并继续消费
2、文件存储【分片和索引机制】
防止log过大,将其拆分为多个segment每个segment包括.log和.index文件,均以当前segment第一条消息的偏移量命名方便old segment的删除,提高磁盘利用率,生命周期由服务器端参数配置
.log存消息内容,.index存放索引(二分查找到指定消息)及物理偏移量/元数据的内存地址(快速定位消息)
3、生产者
数据会被封装为ProducerRecord对象保证可靠性:partition向生产者发送ack分区(得到生产者向第几个partition发送消息,是ProducerRecord构造的参数):便于扩展,提高并发
分区策略:指明、key的hash与partition数取余、round-robin算法(随机数与partition数取余)等
出故障后会从ISR中选取leaderacks应答机制,参数(0,1,-1):对leader和followers约束是否落盘,提高可靠性LEO:每个副本的最后一个offsetHW:所有ISR副本中最小的LEO重要消息的幂等机制:exactly once语义保证消息只被发送一次
4、消费者
消费方式:pull模式,根据消费能力从broker获取消息,并通过timeout参数避免长时间获取空参数分区分配策略:确定partition由哪个CG消费
RoundRobin(基于topic级别轮询消费)Range(基于整体partition均分消费)
分区再平衡:reblance
CG新增消费者,消费者离开CG,topic新增partition
用于offset维护的topic,避免consumer宕机:zookeeper维护 → 内部topic:__consumer_offsetsGC:同一GC内的多个消费者,在同一时刻只能有一个消费者在读取数据
5、高效读写的实现
写:往硬盘中追加写而不随机写(先写到cache,再同步写入硬盘)读:Linux和Unix的零拷贝机制(直接将数据发送到网卡,而无需拷贝到Kafka服务中)
往磁盘中循环读写,保证数据不会丢失
6、zookeeper的作用
对broker和Consumer的元数据进行管理选举并管理Controller
Controller负责:管理集群中的其他broker上下线,以及分区副本分配和leader选举等
7、监控运维
Kafka Manager:IP ADDR:30990Kafka MonitorZK Web UI:IP ADDR:8098
8、其他问题
config中的Bootstrap-server:源码内部使用的实际上就是broker-list,但并未使用Kafka的服务,而是使用了外部服务Bootstrap-server
六、Security
1、安全认证方式
作者:哥们要飞
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~