当前位置: 首页 > news >正文

识别flink的反压源头

背景

flink中最常见的问题就是反压,这种情况下我们要正确的识别导致反压的真正的源头,本文就简单看下如何正确识别反压的源头

反压的源头

首先我们必须意识到现实中轻微的反压是没有必要去优化的,因为这种情况下是由于偶尔的流量峰值,TaskManager的GC,定时任务,或者网络波动正好触发引起的,我们要优化的是那种出现持续的反压的情况

其次反压是通过JobManager通过对TaskManager进行定时采样判断TaskManager的cpu状态来确定的,如下:在这里插入图片描述
JobManager对多个采样周期的数据进行平均后得到如下参数:

idleTimeMsPerSecond 每秒空闲时间
busyTimeMsPerSecond 每秒繁忙时间
backPressuredTimeMsPerSecond 每秒反压时间

这里需要注意,既然是多个周期内的平均,需要意识到我们有可能处于这种情况,比如上一个采样cpu处于反压状态,下一个采样处于空闲状态,这种情况其实也值得注意

然后反压的定义如下:

OK: 0% <= back pressured <= 10%
LOW: 10% < back pressured <= 50%
HIGH: 50% < back pressured <= 100%

重新回到正题,比如如下的图:
在这里插入图片描述

我们看到Source算子和Flat map算子都处于严重的反压状态,那么导致反压的算子是哪一个呢?是Source算子和Flat Map算子本身吗?答案肯定不是,上游的算子反压都是由于下游算子的消费速度跟不上造成的,所以我们需要查看反压算子的下游算子,下游算子中cpu使用100%的那个下游算子几乎就是导致反压的真正源头,比如这里的keyed aggregate→map算子,cpu使用达到了100%,这才是我们需要优化的算子

PS: flink UI中展示的每个算子的cpu空闲/忙碌/反压值是算子所有算子任务中的最大子任务的cpu空闲/最大子任务的cpu忙碌/最大子任务的cpu反压的值

http://www.lryc.cn/news/212623.html

相关文章:

  • Spring是如何解决bean循环依赖的问题的
  • [移动通讯]【Carrier Aggregation-9】【 Radio Resource Control (RRC) Aspects】
  • 故障预测与健康管理(PHM)的由来以及当前面临的挑战
  • 【ChatGPT瀑布到水母】AI 在驱动软件研发的革新与实践
  • 【Django】项目模型
  • 字符集详解
  • Vert.x学习笔记-什么是Vert.x
  • AcWing 第127场周赛 构造矩阵
  • Seata入门系列【15】@GlobalLock注解使用场景及源码分析
  • Dubbo 路由及负载均衡性能优化
  • Python数据可视化入门指南
  • 我的ChatGPT的几个使用场景
  • 3 — NLP 中的标记化:分解文本数据的艺术
  • C++-类与对象(上)
  • 多进程间通信学习之无名管道
  • flink常用的几种调优手段的优缺点
  • 如何选择安全又可靠的文件数据同步软件?
  • 使用反射调用类的私有内部类的私有方法
  • 记一次 AWD 比赛中曲折的 Linux 提权
  • [SpringCloud] Feign 与 Gateway 简介
  • [Unity] 个人编码规范与命名准则参考
  • 堆栈与队列算法-以链表来实现队列
  • 快速入门:使用 Spring Boot 构建 Web 应用程序
  • 01.CentOS7静默安装oracle11g
  • SASE安全访问服务边缘
  • k8s集群升级
  • redis原理 主从同步和哨兵集群
  • 四季古诗赏析
  • 【网络协议】聊聊套接字socket
  • GEO生信数据挖掘(十一)STRING数据库PPI蛋白互作网络 Cytoscape个性化绘图【SCI 指日可待】