当前位置: 首页 > news >正文

【大数据学习 | kafka】kafka的shell操作

1. topic的管理命令(kafka-topics.sh

参数如下:

1.1 创建

# 创建
kafka-topics.sh --bootstrap-server nn1:9092 --create --topic topic_a --partitions 3 --replication-factor 2
# --bootstrap-server 指定集群地址,因为每个节点都存在controller所以想要获取元数据只需要指定集群中的一台机器就行了
# --create是创建命令
# --topic 指定topic的名称
# --partitions 分区数量,分区数量没有限定
# --replication-factor 副本数量,副本数量必须小于等集群的机器的个数,因为一个节点上面不能存在多个副本

1.2 查看 list

# list查看所有topic
kafka-topics.sh --bootstrap-server nn1:9092 --list

1.3 描述 desc

# 描述 desc
kafka-topics.sh --bootstrap-server nn1:9092 --describe --topic topic_a

describe命令展示的topic信息如下:

topic名称
topic_id随机id
partition_count 分区数量
replicationFactor 副本数量
Topic: topic_a  Partition: 0    Leader: 1       Replicas: 1,2   Isr: 1,2
内容解释:topic_a,0号分区在,leader分区在brokerid为1的broker上面,副本在brokerid为1和2两个节点上面
isr是数据的备份情况,先进broker1然后进入到broker2

1.4 删除 delete

# 删除
kafka-topics.sh --bootstrap-server nn1:9092 --delete --topic topic_a

1.5 修改 alter

# 重新创建
kafka-topics.sh --bootstrap-server nn1:9092 --create --topic topic_a --partitions 3 --replication-factor 2
# alter修改topic
kafka-topics.sh --bootstrap-server nn1:9092 --alter --topic topic_a --partitions 2
# 分区数量不能减少只能增加,减少分区会使得数据丢失
kafka-topics.sh --bootstrap-server nn1:9092 --alter --topic topic_a --partitions 4
# 修改副本数据
# 在创建完毕的topic以后,我们在使用的时候可能会遇见,副本不足的情况,这个时候我们可以动态增加topic的副本数量,但是增加的副本数量要在原有的基础上进行增加
# 首先我们创建一个json文件,用于支配topic的分区副本和节点的对应关系
vim json.txt
# 以原有分区分配的策略基础之上做二次变化
{"partitions":[{"topic":"topic_a","partition":0,"replicas":[4,3,2]},{"topic":"topic_a","partition":1,"replicas":[1,0,2]},{"topic":"topic_a","partition":2,"replicas":[2,4,0]},{"topic":"topic_a","partition":3,"replicas":[2,3,1]}],"version":1}
# 执行重新分配命令
kafka-reassign-partitions.sh --bootstrap-server nn1:9092 --reassignment-json-file json.txt --execute

2. 数据的生产消费命令(kafka-console-producer.sh

# 生产者命令
kafka-console-producer.sh --bootstrap-server nn1:9092 --topic topic_a
# 消费者命令 --from-beginning 从头消费数据 --partition 指定分区消费
kafka-console-consumer.sh --bootstrap-server nn1:9092 --topic topic_a
# 指定分区,并且消费历史数据
kafka-console-consumer.sh --bootstrap-server nn1:9092 --topic topic_a  --from-beginning --partition 2

http://www.lryc.cn/news/472363.html

相关文章:

  • UE4安卓打aab包时,同时存在“gradle”、“arm64/gradle”两个Gradle工程的原因
  • 淘宝API接口( item_get- 淘宝商品详情查询)
  • Soanrquber集成Gitlab 之 gitlab用户配置和身份验证
  • 沪深A股上市公司数据报告分析
  • Elasticsearch Search Template 搜索模板
  • 2024年10月-2025年5月 Oracle 19c OCM 考试安排
  • VMware虚拟机安装KailLinux系统
  • G2 基于生成对抗网络(GAN)人脸图像生成
  • R学习笔记-单因素重复测量方差分析
  • HTML练习题:彼岸的花(web)
  • (蓝桥杯C/C++)——常用库函数
  • GPT-Sovits-2-微调模型
  • 【数据结构 | PTA】懂蛇语
  • Python——自动化发送邮件
  • MTKLauncher_布局页面分析
  • C#实现隐藏和显示任务栏
  • 基于springboot+vue实现的公司财务管理系统(源码+L文+ppt)4-102
  • rnn/lstm
  • 袋鼠云产品功能更新报告12期|让数据资产管理更高效
  • MATLAB——入门知识
  • C#从零开始学习(用户界面)(unity Lab4)
  • Axure PR 9 多级下拉清除选择器 设计交互
  • 分布式项目pom配置
  • 2. Flink快速上手
  • Java-I/O框架06:常见字符编码、字符流抽象类
  • 计算机网络-MSTP的基础概念
  • P1037 [NOIP2002 普及组] 产生数
  • 【分布式知识】分布式对象存储组件-Minio
  • 跨平台开发支付组件,实现支付宝支付
  • API 接口:为电商行业高效发展注入强劲动力