Flink日志接入ELK

网友投稿 384 2022-11-20

Flink日志接入ELK

准实时的邮件直接告警很容易将公司的邮箱服务打爆,如果将日志接入ELK,一方面能实现日志的统一存储,方便后续查看追踪,另一方面也能根据特定级别的日志量进行分析,实现曲线预警。

logback将日志接入ELK,可以将日志先打到Kafka,es再费kafka的消息。

lobback原生是没有写入kafka的组件,需要使用到第三方的包 :danielwegener/logback-kafka-appender 在git上可以搜索到

因为logback-kafka-appender还依赖了其他包,方便起见,直接将源码拉下来本地把所有依赖都打到一个依赖包中。

最终编译后的包就是logback-kafka-appender-0.2.0-RC2-jar-with-dependencies.jar

将这个包添加到 flink/lib下

然后在logback配置文件增加对应的appender

%d{yyyy-MM-dd HH:mm:ss.SSS} flink [%thread] %-5level %logger{60} - %msgflink_logbootstrap.servers=xx.xx.xx.xx:9092,xx.xx.xx.xx:9092acks=0linger.ms=1000max.block.ms=0client.id=flinkonyarn-${HOSTNAME}-${CONTEXT_NAME}-logback-relaxed

因为我们的flink 启用了metrics,一直报转换number的warn

这个错误没有意义,只能另外增加一个logger过滤掉了

到这里,我们flink产生的日志都会打到kafka

消费kafka的数据,写入es并通过kibana展示相关内容,可以很方便的查看日志内容

因为kibana暂时没有接入预警功能,所以在这里我们使用grafana聚合es数据,做最后的展示和预警

大功告成

参考资料

​​https://github.com/danielwegener/logback-kafka-appender​​

​​https://jianshu.com/p/d1be3364f32d​​

​​https://aiprose.com/blog/26​​

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:DAMA-CDMP真题详解_第一套试卷_076~080题
下一篇:OpenHarmony HDF 驱动框架概述及加载过程分析
相关文章

 发表评论

暂时没有评论,来抢沙发吧~