当前位置: 首页 > news >正文

pyfink1.20版本下实现消费kafka中数据并实时计算

1、环境

JDK版本:1.8.0_412python版本:3.10.6apache-flink版本:1.20.0flink版本:1.20kafka版本:kafka_2.12-3.1.1flink-sql-connector-kafka版本:3.3.0-1.20

2、执行python-flink脚本

从kafka的demo获取消息,并将其中的a字段存入kafka的test_kafka_topic内,并打印sum(b)的值

from pyflink.table import TableEnvironment, EnvironmentSettingsdef log_processing():# 创建流处理环境env_settings = EnvironmentSettings.in_streaming_mode()t_env = TableEnvironment.create(env_settings)# 设置 Kafka 连接器 JAR 文件的路径# 确保 JAR 文件确实存在于指定路径,并且与 Flink 版本兼容t_env.get_config().get_configuration().set_string("pipeline.jars", "file:///home/data/flink/flink-1.20.0/lib/flink-sql-connector-kafka-3.3.0-1.20.jar")# 定义源表 DDLsource_ddl = """CREATE TABLE source_table(a VARCHAR,b INT  -- 如果 b 字段不重要,可以考虑从源表中移除它) WITH ('connector' = 'kafka','topic' = 'demo','properties.bootstrap.servers' = '192.168.15.130:9092','properties.group.id' = 'test_3','scan.startup.mode' = 'latest-offset','format' = 'json')"""# 定义目标表 DDLsink_ddl = """CREATE TABLE sink_table(a VARCHAR) WITH ('connector' = 'kafka','topic' = 'test_kafka_topic','properties.bootstrap.servers' = '192.168.15.130:9092','format' = 'json')"""# 执行 DDL 语句创建表t_env.execute_sql(source_ddl)#table = t_env.from_path("sql_source")#table.execute().print()table_result  = t_env.execute_sql("select sum(b) sb from source_table")table_result.print()t_env.execute_sql(sink_ddl)# 执行 SQL 查询并将结果插入到目标表# 注意:wait() 方法会阻塞,直到插入操作完成(在流处理中通常是无限的)t_env.sql_query("SELECT a FROM source_table") \.execute_insert("sink_table").wait()  # 考虑是否真的需要 wait()if __name__ == '__main__':log_processing()
python3 KafkaSource.py

3、启动kafka生产者

/usr/local/kafka_2.12-3.1.1/bin/kafka-console-producer.sh --broker-list 192.168.15.130:9092 --topic demo
输入模拟数据进行测试
>{"a": "example_string_1672531199", "b": 42}
>{"a": "example_string_1672531199", "b": 42}
>{"a": "example_string_1672531199", "b": 4}
>{"a": "example_string_1672531199", "b": 4}
>{"a": "example_string_1672531199", "b": 4}

可以看到sum(b)值已输出
在这里插入图片描述

4、启动kafka消费者

查看往test_kafka_topic插入的a字段数据已被消费

/usr/local/kafka_2.12-3.1.1/bin/kafka-console-consumer.sh --bootstrap-server 192.168.15.130:9092  --from-beginning --topic test_kafka_topic

在这里插入图片描述

http://www.lryc.cn/news/504422.html

相关文章:

  • 国产Tomcat东方通(TongWeb):Linux系统部署全攻略
  • bilstm -crf 的torch官方的教程 不支持 batchsize 。。。。有更效率更高的方案吗
  • Python面试常见问题及答案6
  • 代码随想录算法训练营第三天 | 链表理论基础 | 203.移除链表元素
  • 1. 机器学习基本知识(5)——练习题(1)
  • vue 自定义组件image 和 input
  • 系列3:基于Centos-8.6 Kubernetes使用nfs挂载pod的应用日志文件
  • Jfinal项目整合Redis
  • 在Ubuntu服务器上备份文件到自己的百度网盘
  • Unity 模板测试透视效果(URP)
  • 《计算机视觉证书:开启职业发展新航道》
  • .NET6 WebApi第1讲:VSCode开发.NET项目、区别.NET5框架【两个框架启动流程详解】
  • Git-分布式版本控制工具
  • C++ 第10章 对文件的输入输出
  • 【机器学习】手写数字识别的最优解:CNN+Softmax、Sigmoid与SVM的对比实战
  • android 聊天界面键盘、表情切换丝滑
  • Web项目图片视频加载缓慢/首屏加载白屏
  • 关于Git分支合并,跨仓库合并方式
  • [网络] UDP协议16位校验和
  • Vue 3 中的 `update:modelValue` 事件详解
  • vue3+vite+ts 使用webrtc-streamer播放海康rtsp监控视频
  • QT数据库(四):QSqlRelationalTableModel 类
  • 蓝桥杯刷题——day5
  • YOLO11改进-模块-引入多尺度差异融合模块MDFM
  • vlan和vlanif
  • Apache Kylin最简单的解析、了解
  • MySQL——连接
  • 前端微服务实战:大型应用的拆分与治理
  • Linux shell的七大功能 --- history
  • C++ webrtc开发(非原生开发,linux上使用libdatachannel库)