| 注册
请输入搜索内容

热门搜索

Java Linux MySQL PHP JavaScript Hibernate jQuery Nginx
MikNorthfie
5年前发布

Kafka:架构简介

   <h2>简介</h2>    <p>Kafka是一个开源的、分布式的、可分区的、可复制的基于日志提交的发布订阅消息系统。它具备以下特点:</p>    <p>·消息持久化: 为了从大数据中获取有价值的信息,任何信息的丢失都是负担不起的。Kafka使用了O(1)的磁盘结构设计,这样做即便是在要存储大体积的数据时也是可以提供稳定的性能。使用Kafka时,message会被存储并且会被复制以防止数据丢失。</p>    <p>·高吞吐量: 设计是工作在普通的硬件设施上多个客户端能够每秒处理几百兆的数据量。</p>    <p>·分布式: Kafka Broker的中心化集群支持消息分区,而consumer采用分布式进行消费。</p>    <p>·种多Client支持: Kafka很容易与其它平台进行支持,例如:Java、.NET、PHP、Ruby、Python。</p>    <p>·实时: 消息由producer产生后立即对consumer可见。这个特性对于基于事件的系统是很关键的。</p>    <p>下面就来对Kafka架构做一个简单的说明:</p>    <h2>Kafka各组件说明</h2>    <p>每个kafka server称为一个Broker,多个borker组成kafka cluster。</p>    <p><img src="https://simg.open-open.com/show/b9570eff56da2f141d5bd554856c4a5d.png"></p>    <p>一个机器上可以部署一个或者多个Broker,这多个Broker连接到相同的ZooKeeper就组成了Kafka集群。</p>    <p>Kafka是一个发布订阅消息系统,它的逻辑结构如下:</p>    <p><img src="https://simg.open-open.com/show/3829df7057fb2802be8dd51bd2eeedb3.png"></p>    <p>Topic 就是消息类别名,一个topic中通常放置一类消息。每个topic都有一个或者多个订阅者,也就是消息的消费者consumer。</p>    <p>Producer将消息推送到topic,由订阅该topic的consumer从topic中拉取消息。</p>    <p>Topic 与broker</p>    <p>一个Broker上可以创建一个或者多个Topic。同一个topic可以在同一集群下的多个Broker中分布。</p>    <p><img src="https://simg.open-open.com/show/519d7f68ea638c5c6af64c1e694a1265.png"></p>    <p>Partition log</p>    <p>Kafka会为每个topic维护了多个分区(partition),每个分区会映射到一个逻辑的日志(log)文件:</p>    <p><img src="https://simg.open-open.com/show/7da888b71cff491c8d5abdc8881232e5.png"></p>    <p>每当一个message被发布到一个topic上的一个partition,broker应会将该message追加到这个逻辑log文件的最后一个segment上。这些segments 会被flush到磁盘上。Flush时可以按照时间来进行,也可以按照message 数来执行。</p>    <p>每个partition都是一个有序的、不可变的结构化的提交日志记录的序列。在每个partition中每一条日志记录都会被分配一个序号——通常称为offset,offset在partition内是唯一的。论点逻辑文件会被化分为多个文件segment(每个segment的大小一样的)。</p>    <p>Broker集群将会保留所有已发布的message records,不管这些消息是否已被消费。保留时间依赖于一个可配的保留周期。例如:如果设置了保留策略是2day,那么每一条消息发布两天内是被保留的,在这个2day的保留时间内,消息是可以被消费的。过期后不再保留。</p>    <p><img src="https://simg.open-open.com/show/e23a7cf3ce499a024888c858cddf4607.png"></p>    <p>Partition distribution</p>    <p>日志分区是分布式的存在于一个kafka集群的多个broker上。每个partition会被复制多份存在于不同的broker上。这样做是为了容灾。具体会复制几份,会复制到哪些broker上,都是可以配置的。经过相关的复制策略后,每个topic在每个broker上会驻留一到多个partition。如图:</p>    <p><img src="https://simg.open-open.com/show/2bccd4a8235cba9aded68347fc54d3ac.png"></p>    <p>如果要了解kafka如何进行partition、replica 分配的,可以参考:</p>    <p><a href="/misc/goto?guid=4959723604524052784" rel="nofollow,noindex">http://www.cnblogs.com/yurunmiao/p/5550906.html</a></p>    <p>对于同一个partition,它所在任何一个broker,都有能扮演两种角色:leader、follower。</p>    <p>看上面的例子。红色的代表是一个leader。</p>    <p>对于topic1的4个partition:</p>    <p>Part 1的leader是broker1,followers是broker2\3。</p>    <p>Part2的leader是broker2,followers是broker1\4。</p>    <p>Part3的leader是broker3,followers是broker1\3。</p>    <p>Part4的leader是broker4,followers是broker2\3。</p>    <p>对于topic2的3个partition:</p>    <p>Part1的leader是broker1,followers是broker2。</p>    <p>Part2的leader是broker2,followers是broker3。</p>    <p>Part3的leader是broker3,followers是broker4。</p>    <p>对于topic2的4个partition:</p>    <p>Part 1的leader是broker4,followers是broker1\2\3。</p>    <p>Part2的leader是broker2,followers是broker1\3\4。</p>    <p>Part3的leader是broker3,followers是broker1\2\4。</p>    <p>Part4的leader是broker1,followers是broker2\3\4。</p>    <p>每个partition的Leader的用于处理到该partition的读写请求的。</p>    <p>每个partition的followers是用于异步的从它的leader中复制数据的。</p>    <p>Kafka会动态维护一个与Leader保持一致的同步副本(in-sync replicas (ISR))集合,并且会将最新的同步副本(ISR )集合持久化到zookeeper。如果leader出现问题了,就会从该partition的followers中选举一个作为新的leader。</p>    <p>所以呢,在一个kafka集群中,每个broker通常会扮演两个角色:在一个partition中扮演leader,在其它的partition中扮演followers。Leader是最繁忙的,要处理读写请求。这样将leader均分到不同的broker上,目的自然是要确保负载均衡。</p>    <h3>Producer</h3>    <p>Producer作为消息的生产者,在生产完消息后需要将消息投送到指定的目的地(某个topic的某个partition)。Producer可以根据指定选择partition的算法或者是随机方式来选择发布消息到哪个partition。</p>    <h3>Consumer</h3>    <p>在Kafka中,同样有consumer group的概念,它是逻辑上将一些consumer分组。因为每个kafka consumer是一个进程。所以一个consumer group中的consumers将可能是由分布在不同机器上的不同的进程组成的。Topic中的每一条消息可以被多个consumer group消费,然而每个consumer group内只能有一个consumer来消费该消息。所以,如果想要一条消息被多个consumer消费,那么这些consumer就必须是在不同的consumer group中。所以也可以理解为consumer group才是topic在逻辑上的订阅者。</p>    <p>每个consumer可以订阅多个topic。</p>    <p>每个consumer会保留它读取到某个partition的offset。而consumer 是通过zookeeper来保留offset的。</p>    <h2>Kafka提供的保障</h2>    <p>1、如果producer往特定的partition发送消息时,会按照先后顺序存储,也就是说如果发送顺序是message1、message2、message3。那么这三个消息在partition log中的记录的offset就是 message1_offset < message2_offset < message3_offset。</p>    <p>2、consumer也是有序的浏览log中的记录。</p>    <p>3、如果一个topic指定了replication factor为N,那么就允许有N-1个Broker出错。</p>    <p>对上述各组件介绍后,现在就应该可以很容易的理解Kafka的架构图:</p>    <p><img src="https://simg.open-open.com/show/a0f180685f7fc10d748d324e79ed613d.png"></p>    <p> </p>    <p>来自:http://www.cnblogs.com/f1194361820/p/6026313.html</p>    <p> </p>    
 本文由用户 MikNorthfie 自行上传分享,仅供网友学习交流。所有权归原作者,若您的权利被侵害,请联系管理员。
 转载本站原创文章,请注明出处,并保留原始链接、图片水印。
 本站是一个以用户分享为主的开源技术平台,欢迎各类分享!
 本文地址:https://www.open-open.com/lib/view/open1478155342606.html
Kafka 消息系统 Apache Kafka