当前位置: 首页 > news >正文

kafka的安装与简单使用

下载地址:Apache Kafka

1. 上传并解压安装包

tar -zxvf kafka_2.13-3.6.2.tgz 

修改文件名:mv kafka_2.13-3.6.2 kafka

2. 配置环境变量

sudo vim /etc/profile

#配置kafka环境变量

export KAFKA_HOME=/export/server/kafka

export PATH=$PATH:$KAFKA_HOME/bin

使配置生效:source /etc/profile

3. 修改kafka配置文件

修改server.properties(在文件中找到相应位置进行修改)

# The id of the broker. This must be set to a unique integer for each broker.

broker.id=1 #其他节点分别配置不同数值即可,本人依次递增1,2,3

# listeners = PLAINTEXT://your.host.name:9092

listeners=PLAINTEXT://node1:9092 #其他节点分别改为node2,node3,node4

# A comma separated list of directories under which to store log files

log.dirs=/export/server/kafka_2.13-3.2.0/logs #需要自己创建logs目录

####### Zookeeper #####

# Zookeeper connection string (see zookeeper docs for details).

# This is a comma separated host:port pairs, each corresponding to a zk

# server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002".

# You can also append an optional chroot string to the urls to specify the

# root directory for all kafka znodes.

zookeeper.connect=node1:2181,node2:2181,node3:2181,node4:2181/Kafka

num.partitions=5  # 默认partition数量为1,如果topic在创建时没有指定partition数量,默认使用此值,建议改为5

auto.create.topics.enable=false  #自动创建topic参数,建议此值设置为false,严格控制topic管理,防止生产者错写topic。

default.replication.factor=3 #默认副本数量为1,建议改为2。

delete.topic.enable=true     #启用deletetopic参数,建议设置为true

controlled.shutdown.enable=true     #允许broker shutdown。如果启用,broker在关闭自己之前会把它上面的所有leaders转移到其它brokers上,建议启用,增加集群稳定性。

offsets.topic.replication.factor=3

4.开启Kafka服务

先启动zookeeper,再在各节点分别开启服务

/export/server/kafka/bin/kafka-server-start.sh -daemon /export/server/kafka/config/server.properties

5.简单使用

Kafka常用命令

(1)查看Kafka Topic列表

kafka-topics.sh --bootstrap-server node1:9092,node2:9092 --list

(2)创建Kafka Topic

kafka-topics.sh --bootstrap-server node1:9092,node2:9092 --create --topic customers --partitions 3 --replication-factor 3

(3个分区,三个副本)

       (3)查看topic的详情

kafka-topics.sh --bootstrap-server node1:9092,node2:9092 --topic customers –describe

       (4)增加分区

kafka-topics.sh --bootstrap-server node1:9092,node2:9092 --topic customers --alter --partitions 4

(5)删除Kafka Topic

kafka-topics.sh --bootstrap-server node1:9092,node2:9092 --delete --topic topic

(6)Kafka生产消息

kafka-console-producer.sh --bootstrap-server node1:9092,node2:9092 --topic customers

(7)Kafka消费消息

kafka-console-consumer.sh -bootstrap-server node1:9092,node2:9092 --topic customers --from-beginning

--from-beginning:会把主题中以往所有的数据都读取出来。根据业务场景选择是否增加该参数。

6.关闭Kafka

/export/server/kafka/bin/kafka-server-stop.sh

集群关闭顺序:先关闭Kafka,再关闭Zookeeper,最后关闭hadoop

http://www.lryc.cn/news/358185.html

相关文章:

  • 【服务器部署篇】Linux下Node.js的安装和配置
  • 【OrangePi AIpro】香橙派 AIpro 为AI而生
  • AES算法
  • 自主创新助力科技强军,麒麟信安闪耀第九届军博会
  • Android Retrofit 封装模版
  • 【介绍下运维开发】
  • mybatis-plus中多条件查询使用and合or嵌套使用
  • 前端加密的方式汇总
  • ELT 同步 MySQL 到 Doris
  • 100个 Unity小游戏系列七 -Unity 抽奖游戏专题五 刮刮乐游戏
  • 链游:区块链技术的游戏新纪元
  • 格式化字符串
  • 错误信息:Traceback (most recent call last):
  • Thinkphp3.2.3网站后台不能访问如何修复
  • Golang 如何使用 gorm 存取带有 emoji 表情的数据
  • 计算机算法中的数字表示法——原码、反码、补码
  • BGP策略实验
  • 目标检测 | R-CNN、Fast R-CNN与Faster R-CNN理论讲解
  • 【busybox记录】【shell指令】mkdir
  • SQL刷题笔记day6-1
  • KITTI数据中pose含义
  • C++模拟实现stack和queue
  • awtk踩坑记录一:awtk-web build.py编译过程笔记
  • docker容器中解决中文乱码
  • Javascript 位运算符(,|,^,<<,>>,>>>)
  • Golang项目代码组织架构实践
  • 网工内推 | 国企信息安全工程师,CISP认证优先
  • RAG 高级应用:基于 Nougat、HTML 转换与 GPT-4o 解析复杂 PDF 内嵌表格
  • 《TCP/IP网络编程》(第十二章)I/O复用(2)
  • AI企业需要“联盟营销”?一文带你探索AI企业营销新玩法!