当前位置: 首页 > news >正文

kafka简介

kafka是什么?

Kafka最初采用Scala语言开发的一个多分区、多副本并且基于ZooKeeper协调的分布式消息系统。目前Kafka已经定位为一个分布式流式处理平台,它的特性有高吞吐、可持久化、可水平扩展、支持流处理。
Apache Kafka是一个分布式的发布-订阅消息系统,能够支撑海量数据的数据传递。在离线和实时的消
息处理业务系统中,Kafka都有广泛的应用。Kafka将消息持久化到磁盘中,并对消息创建了备份保证了数据的安全。Kafka在保证了较高的处理速度的同时,又能保证数据处理的低延迟和数据的零丢失。

kafka的特点?

高吞吐量、低延迟。每个主题可以分为多个分区,消费组对分区进行消费操作。
高扩展性:kafka集群支持热扩展。
持久性、可靠性:消息被持久化到本地磁盘,并且支持数据备份防止数据丢失。
容错性:允许集群中节点失败,(若副本数量为n,则允许n-
1个节点失败)
高并发:支持数千个客户端同时读写

kafka的技术优点?

可伸缩性:kafka在运行期间可以轻松地添加和删除代理,而不会宕机。可以扩展主题的分区。由于分区无法扩展到多个代理,所以容量受磁盘空间限制。能够增加分区和代理的数量意味着单个主题可以存储的数量是无限制的。(主题和分区可以跨代理吗?)
容错性和可靠性:kafka的设计方式使某个代理的故障能够被集群找那个的其他代理检测到。由于每个主题都可以在多个代理上复制,所以集群可以在不中断服务的情况下从此类故障中恢复并继续运行。
吞吐量:能够以超快的速度有效的存储和检索数据。

kafka内的术语?

Producer

生产者将消息发布到Kafka的主题topic中。broker接收到生产者发送的消息后,broker将该消息追加到当前用于追加数据的segment文件中。生产者发送的消息,存储到一个partition
中,生产者也可以指定数据存储的partition。

Consumer

消费者可以从broker中读取数据。消费者可以消费多个topic中的数据。

Topic

使用一个类别属性来划分数据的所属类,划分数据的这个类称为topic。如果把Kafka看做为一个数据库,topic可以理解为数据库中的一张表,topic的名字即为表名。

Partition

topic中的数据分割为一个或多个partition。每个topic至少有一个partition。每个partition中的数据使用多个segment文件存储。partition中的数据是有序的,partition间的数据丢失了数据的顺序。在需要严格保证消息消费顺序的场景下,需要将partition数目设为1。

Partition offset

每条消息都有一个当前Partition下唯一的64字节的offset,它指明了这条消息的起始位置。

Replicas of partition

副本是一个分区的备份。副本不会被消费者消费,副本只用于防止数据丢失,即消费者不从为follower的partition中消费数据,而是从为leader的partition中读取数据。副本之间是一主多从的关系。

Broker

Kafka 集群包含一个或多个服务器,服务器节点称为broker。broker存储topic的数据。如果某topic有N个partition,集群有N个broker,那么每个broker存储该topic的一个partition。设置brocker的数量大于分区的数量。

Leader

一个分区有多个副本,有且仅有一个副本是leader,其他是follower

Follower

Follower跟随Leader,所有写请求都通过Leader路由,数据变更会广播给所有Follower,Follower与Leader保持数据同步。如果Leader失效,则从Follower中选举出一个新的Leader。当Follower与Leader挂掉、卡住或者同步太慢,leader会把这个follower从“in sync replicas”(ISR)列表中删除,重新创建一个Follower。

Zookeeper

Zookeeper负责维护和协调broker。当Kafka系统中新增了broker或者某个broker发生故障失效时,由ZooKeeper通知生产者和消费者。生产者和消费者依据Zookeeper的broker状态信息与broker协调数据的发布和订阅任务。

AR(Assigned Replicas)

分区中所有的副本统称为AR。

ISR(In-Sync Replicas)

所有与Leader部分保持一定程度的副(包括Leader副本在内)本组成ISR

OSR(Out-of-Sync-Replicas)

与Leader副本同步滞后过多的副本。

HW(High Watermark)

高水位,标识了一个特定的offset,消费者只能拉取到这个offset之前的消息。

LEO(Log End Offset)

即日志末端位移(log end offset),记录了该副本底层日志(log)中下一条消息的位移值。注意是下一条消息!也就是说,如果LEO=10,那么表示该副本保存了10条消息,位移值范围是[0, 9]。

kafka的安装步骤

前提条件:jdk、zookeeper、kafka
安装jdk:
1、所有文件放入/opt/java,然后tar -zxvf命令解压
2、配置环境变量,/etc/profile文件

export JAVA_HOME=/opt/java/jdk-12.0.1
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=.:$JAVA_HOME/bin:$JRE_HOME/bin:$KE_HOME/bin:${MAVEN_HOME}/bin:$PATH

3、测试jdk是否安装成功,java -version命令查看
安装zookeeper:
1.conf目录下修改配置文件,配置文件默认名:zoo_sample.cfg
cp命令复制配置文件,命名为zoo.cfg,
修改数据目录和日志目录
/opt/java/zookeeper-3.4.14
/opt/java/zookeeper-3.4.14
2.启动zookeeper
[root@localhost zookeeper-3.4.14]# bin/zkServer.sh start
安装kafka:
1、修改配置文件service.properties
修改日志/opt/java/kafka_2.12-2.2.1/log
2、启动kafka:bin/kafka-server-start.sh config/server.properties
启动kafka后台运行:bin/kafka-server-start.sh -daemon config/server.properties
listeners=PLAINTEXT://:9092去掉注释
log.dirs=/opt/java/kafka_2.12-2.2.1/log新建日志目录并设置日志地址
zookeeper.connect=localhost:2181打开zookeeper连接

http://www.lryc.cn/news/106813.html

相关文章:

  • Kafka-消费者组消费流程
  • FFmepg视频解码
  • SpringCloud深入理解 | 生产者、消费者
  • web题型
  • 使用curl和postman调用Azure OpenAI Restful API
  • 草莓叶病害数据集
  • 安卓音视频多对多级联转发渲染
  • 2023年电赛---运动目标控制与自动追踪系统(E题)OpenART mini的代码移植到OpenMV
  • SAP CAP篇十二:AppRouter 深入研究
  • HDFS中数据迁移的使用场景和考量因素
  • 科普 | 以太坊坎昆升级是什么
  • C# 一些知识整理
  • SpringBoot复习:(15)Spring容器的核心方法refresh是在哪里被调用的?
  • Android安卓实战项目(5)---完整的健身APP基于安卓(源码在文末)可用于比赛项目或者作业参考中
  • AutoSAR系列讲解(实践篇)11.2-存储处理与Block
  • K8s总结
  • 3.playbook剧本二
  • 【MySQL】视图与用户管理
  • LINUX系统监控工具ATOP的使用
  • [回馈]ASP.NET Core MVC开发实战之商城系统(五)
  • iPhone 8透明屏的透明度高吗?
  • Vue2 第十五节 组件间通信方式
  • maven的下载与安装
  • BroadcastChannel 实现浏览器tab无刷新通讯
  • 98. Python基础教程:try...except...finally语句
  • c语言实现简单的tcp客户端
  • RocketMQ详解及注意事项
  • 选择适合的项目管理系统,了解有哪些选择和推荐
  • linux基础命令-cd
  • MySQL数据库分库分表备份