c语言sscanf函数的用法是什么
282
2022-11-26
Kafka核心API——Connect API
Kafka Connect基本概念介绍
Kafka Connect是一个用于将数据流输入和输出Kafka的框架。Confluent平台附带了几个内置connector,可以使用这些connector进行关系数据库或HDFS等常用系统到Kafka的数据传输,也是用来构建ETL的一种方案。
Kafka Connect基本概念:
Kafka Connect实际上是Kafka流式计算的一部分 Kafka Connect主要用来与其他中间件建立流式通道 Kafka Connect支持流式和批处理集成
Kafka Connect关键词:
Connectors:通过管理task来协调数据流的高级抽象 Tasks:如何将数据复制到Kafka或从Kafka复制数据的实现 Workers:执行Connector和Task的运行进程 Converters: 用于在Connect和外部系统发送或接收数据之间转换数据的代码 Transforms:更改由连接器生成或发送到连接器的每个消息的简单逻辑
Connectors
Kafka Connect中的connector定义了数据应该从哪里复制到哪里。connector实例是一种逻辑作业,负责管理Kafka与另一个系统之间的数据复制。
Task
Task是Connect数据模型中的主要处理数据的角色,也就是真正干活的。每个connector实例协调一组实际复制数据的task。通过允许connector将单个作业分解为多个task,Kafka Connect提供了内置的对并行性和可伸缩数据复制的支持,只需很少的配置。
这些任务没有存储任何状态。任务状态存储在Kafka中的特殊主题config.storage.topic和status.storage.topic中。因此,可以在任何时候启动、停止或重新启动任务,以提供弹性的、可伸缩的数据管道。
Workers
Workers是负责管理和执行connector和task的,Workers有两种模式,Standalone(单机)和Distributed(分布式)。
Standalone Workers:
Standalone模式是最简单的模式,用单一进程负责执行所有connector和task
Distributed Workers:
Task Rebalance
当connector首次提交到集群时,workers会重新平衡集群中的所有connector及其tasks,以便每个worker的工作量大致相同。当connector增加或减少它们所需的task数量,或者更改connector的配置时,也会使用相同的重新平衡过程。
当一个worker失败时,task在活动的worker之间重新平衡。当一个task失败时,不会触发再平衡,因为task失败被认为是一个例外情况。因此,失败的task不会被框架自动重新启动,应该通过REST API重新启动。
Converters
在向Kafka写入或从Kafka读取数据时,Converter是使Kafka Connect支持特定数据格式所必需的。task使用Converters将数据格式从字节转换为连接内部数据格式,反之亦然。并且Converter与Connector本身是解耦的,以便在Connector之间自然地重用Converter。
默认提供以下Converters:
AvroConverter(建议):与Schema Registry一起使用 JsonConverter:适合结构数据 StringConverter:简单的字符串格式 ByteArrayConverter:提供不进行转换的“传递”选项
Transforms
Connector可以配置Transforms,以便对单个消息进行简单且轻量的修改。这对于小数据的调整和事件路由十分方便,且可以在connector配置中将多个Transforms连接在一起。然而,应用于多个消息的更复杂的Transforms最好使用KSQL和Kafka Stream来实现。
Transforms是一个简单的函数,输入一条记录,并输出一条修改过的记录。Kafka Connect提供许多Transforms,它们都执行简单但有用的修改。可以使用自己的逻辑定制实现转换接口,将它们打包为Kafka Connect插件,将它们与connector一起使用。
当Transforms与Source Connector一起使用时,Kafka Connect通过第一个Transforms传递connector生成的每条源记录,第一个Transforms对其进行修改并输出一个新的源记录。将更新后的源记录传递到链中的下一个Transforms,该Transforms再生成一个新的修改后的源记录。最后更新的源记录会被转换为二进制格式写入到Kafka。Transforms也可以与Sink Connector一起使用。
以下为Confluent平台提供的Transforms:
Connect环境准备
前面已经铺垫了Kakfa Connect的基本概念,接下来用一个简单的例子演示一下Kakfa Connect的使用方式,以便对其作用有一个直观的了解。
在演示Kakfa Connect的使用之前我们需要先做一些准备,因为依赖一些额外的集成。例如在本文中使用MySQL作为数据源的输入和输出,所以首先得在MySQL中创建两张表(作为Data Source和Data Sink)。建表SQL如下:
CREATE TABLE `users_input` ( `uid` int(11) NOT NULL AUTO_INCREMENT, `name` varchar(20) NOT NULL, `age` int(11) NOT NULL, PRIMARY KEY (`uid`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci; CREATE TABLE `users_output` ( `uid` int(11) NOT NULL AUTO_INCREMENT, `name` varchar(20) NOT NULL, `age` int(11) NOT NULL, PRIMARY KEY (`uid`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci;
接下来就是考虑怎么实现Kafka Connect了,前面有提到过Kafka Connect中的connector定义了数据应该从哪里复制到哪里。connector实例是一种逻辑作业,负责管理Kafka与另一个系统之间的数据复制。
因此,如果要自己实现一个Connect的话还是稍微有些复杂的,好在Confluent平台有些现成的Connect。例如Confluent平台就有JDBC的Connect,下载地址如下:
Server上进行相应的配置才能使用该Connect,所以复制下载链接到服务器上使用wget命令进行下载:
[root@txy-server2 ~]# cd /usr/local/src [root@txy-server2 /usr/local/src]# wget /usr/local/src]# wget /usr/local/src]# unzip confluentinc-kafka-connect-jdbc-5.5.0.zip [root@txy-server2 /usr/local/src]# mkdir -p /opt/kafka/plugins [root@txy-server2 /usr/local/src]# mv confluentinc-kafka-connect-jdbc-5.5.0 /opt/kafka/plugins/kafka-connect-jdbc [root@txy-server2 /usr/local/src]# mv mysql-connector-java-8.0.20.jar /opt/kafka/plugins/kafka-connect-jdbc/lib/
Connect包准备好后,编辑connect-distributed.properties配置文件,修改如下配置项:
[root@txy-server2 ~]# vim /usr/local/kafka/config/connect-distributed.properties # Broker Server的访问ip和端口号 bootstrap.servers=172.21.0.10:9092 # 指定集群id group.id=connect-cluster # 指定rest服务的端口号 rest.port=8083 # 指定Connect插件包的存放路径 plugin.path=/opt/kafka/plugins
由于rest服务监听了8083端口号,如果你的服务器开启了防火墙就需要使用以下命令开放8083端口,否则外部无法访问:
[root@txy-server2 ~]# firewall-cmd --zone=public --add-port=8083/tcp --permanent [root@txy-server2 ~]# firewall-cmd --reload
完成前面的步骤后,我们就可以启动Kafka Connect了。有两种启动方式,分别是:前台启动和后台启动,前者用于开发调试,后者则通常用于正式环境。具体命令如下:
# 前台启动 [root@txy-server2 ~]# connect-distributed.sh /usr/local/kafka/config/connect-distributed.properties # 后台启动 [root@txy-server2 ~]# connect-distributed.sh -daemon /usr/local/kafka/config/connect-distributed.properties
到此为止,我们就已经完成Kafka Connect的环境准备了,接下来演示一下Source Connector与Sink Connector如何与MySQL做集成。
Kafka Connect Source和MySQL集成
此时我们可以使用POST方式请求/connectors接口来新增一个connector,这里以curl命令为例,调用示例如下:
curl -X POST -H 'Content-Type: application/json' -i '\ --data \ '{"name":"test-upload-mysql","config":{ "connector.class":"io.confluent.connect.jdbc.JdbcSourceConnector", "connection.url":"jdbc:mysql://{ip}:3306/kafka_store?user=root&password=123456a.", "table.whitelist":"users_input", "incrementing.column.name": "uid", "mode":"incrementing", "topic.prefix": "test-mysql-"}}'
参数说明:
name:指定新增的connector的名称 config:指定该connector的配置信息 connector.class:指定使用哪个Connector类 connection.url:指定MySQL的连接url table.whitelist:指定需要加载哪些数据表 incrementing.column.name:指定表中自增列的名称 mode:指定connector的模式,这里为增量模式 topic.prefix:Kafka会创建一个Topic,该配置项就是用于指定Topic名称的前缀,后缀为数据表的名称。例如在本例中将生成的Topic名称为:test-mysql-users_input
调用成功后,会返回如下响应数据:
HTTP/1.1 201 Created Date: Mon, 25 May 2020 13:48:16 GMT Location: http://{ip}:8083/connectors/test-upload-mysql Content-Type: application/json Content-Length: 368 Server: Jetty(9.4.24.v20191120) {"name":"test-upload-mysql","config":{"connector.class":"io.confluent.connect.jdbc.JdbcSourceConnector","connection.url":"jdbc:mysql://{ip}:3306/kafka_store?user=root&password=123456a.","table.whitelist":"users_input","incrementing.column.name":"uid","mode":"incrementing","topic.prefix":"test-mysql-","name":"test-upload-mysql"},"tasks":[],"type":"source"}
新增connector完成后,我们尝试往数据表里添加一些数据,具体的sql如下:
insert into users_input(`name`, `age`) values('小明', 15); insert into users_input(`name`, `age`) values('小白', 13); insert into users_input(`name`, `age`) values('小李', 17);
接着使用kafka-console-consumer.sh脚本命令去拉取test-mysql-users_input中的数据:
[root@txy-server2 ~]# kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092 --topic test-mysql-users_input --from-beginning
拉取出来的数据是JSON结构的,其中的payload就是数据表中的数据,如下:
{"schema":{"type":"struct","fields":[{"type":"int32","optional":false,"field":"uid"},{"type":"string","optional":false,"field":"name"},{"type":"int32","optional":false,"field":"age"}],"optional":false,"name":"users_input"},"payload":{"uid":1,"name":"小明","age":15}} {"schema":{"type":"struct","fields":[{"type":"int32","optional":false,"field":"uid"},{"type":"string","optional":false,"field":"name"},{"type":"int32","optional":false,"field":"age"}],"optional":false,"name":"users_input"},"payload":{"uid":2,"name":"小白","age":13}} {"schema":{"type":"struct","fields":[{"type":"int32","optional":false,"field":"uid"},{"type":"string","optional":false,"field":"name"},{"type":"int32","optional":false,"field":"age"}],"optional":false,"name":"users_input"},"payload":{"uid":3,"name":"小李","age":17}}
能拉取到这样的数据就代表已经成功将MySQL数据表中的数据传输到Kafka Connect Source里了,也就是完成输入端的工作了。
Kafka Connect Sink和MySQL集成
现在我们已经能够通过Kafka Connect将MySQL中的数据写入到Kafka中了,接下来就是完成输出端的工作,将Kafka里的数据输出到MySQL中。
首先,我们需要调用Rest API新增一个Sink类型的connector。具体请求如下:
curl -X POST -H 'Content-Type: application/json' -i '\ --data \ '{"name":"test-download-mysql","config":{ "connector.class":"io.confluent.connect.jdbc.JdbcSinkConnector", "connection.url":"jdbc:mysql://{ip}:3306/kafka_store?user=root&password=123456a.", "topics":"test-mysql-users_input", "auto.create":"false", "insert.mode": "upsert", "pk.mode":"record_value", "pk.fields":"uid", "table.name.format": "users_output"}}'
参数说明:
name:指定新增的connector的名称 config:指定该connector的配置信息 connector.class:指定使用哪个Connector类 connection.url:指定MySQL的连接url topics:指定从哪个Topic中读取数据 auto.create:是否自动创建数据表 insert.mode:指定写入模式,upsert表示可以更新及写入 pk.mode:指定主键模式,record_value表示从消息的value中获取数据 pk.fields:指定主键字段的名称 table.name.format:指定将数据输出到哪张数据表上
调用成功后,会返回如下响应数据:
HTTP/1.1 201 Created Date: Mon, 25 May 2020 14:37:41 GMT Location: http://49.232.153.84:8083/connectors/test-download-mysql Content-Type: application/json Content-Length: 409 Server: Jetty(9.4.24.v20191120) {"name":"test-download-mysql","config":{"connector.class":"io.confluent.connect.jdbc.JdbcSinkConnector","connection.url":"jdbc:mysql://47.106.206.51:3306/kafka_store?user=root&password=Zero-One1.","topics":"test-mysql-users_input","auto.create":"false","insert.mode":"upsert","pk.mode":"record_value","pk.fields":"uid","table.name.format":"users_output","name":"test-download-mysql"},"tasks":[],"type":"sink"}
小结
回顾一下本文中的示例,可以直观的看到Kafka Connect实际上就做了两件事情:使用Source Connector从数据源(MySQL)中读取数据写入到Kafka Topic中,然后再通过Sink Connector读取Kafka Topic中的数据输出到另一端(MySQL)。
虽然本例中的Source端和Sink端都是MySQL,但是不要被此局限了,因为Source端和Sink端可以是不一样的,这也是Kafka Connect的作用所在。它就像一个倒卖数据的中间商,将Source端的数据读取出来写到自己的Topic,这就像进货一样,然后再将数据输出给Sink端。至此,就完成了一个端到端的数据同步,其实会发现与ETL过程十分类似,这也是为啥Kafka Connect可以作为实现ETL方案的原因。
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~