| 注册
请输入搜索内容

热门搜索

Java Linux MySQL PHP JavaScript Hibernate jQuery Nginx
WilHennessy
8年前发布

近千节点的Redis Cluster高可用集群案例:优酷蓝鲸优化实战

   <p>吴建超,优酷土豆广告基础平台开发工程师,对互联网基础产品及大数据产品有兴趣。</p>    <p>在优酷,我们使用 Redis Cluster 构建了一套内存存储系统,项目代号为蓝鲸。蓝鲸的设计目标是高效读写,所有数据都在内存中。蓝鲸的主要应用场景是 cookie 和大数据团队计算的数据,都具有较强的时效性,因此所有的数据都有过期时间。更准确的说蓝鲸是一个全内存的临时存储系统。</p>    <p>到目前为止集群规模逐渐增长到 700+ 节点,即将达到 <strong>作者建议的最大集群规模 1,000 节点</strong> 。我们发现随着集群规模的扩大,带宽压力不断突出,并且响应时间 RT 方面也会略微升高。与一致性哈希构建的 Redis 集群不一样,Redis Cluster 不能做成超大规模的集群,它比较适合作为中等规模集群的解决方案。</p>    <p>运维期间, <strong>吞吐量与 RT 一直作为衡量集群稳定性的重要指标</strong> ,这里在本文中,我们碰到的影响集群吞吐量与 RT 的一些问题与探索记录下来,希望对大家有所帮助。</p>    <h2>Redis Cluster 工作原理</h2>    <p>Redis 采用单进程模型,除去 bgsave 与 aof rewrite 会另外新建进程外,所有的请求与操作都在主进程内完成。其中比较重量级的请求与操作类型有:</p>    <ul>     <li> <p>客户端请求</p> </li>     <li> <p>集群通讯</p> </li>     <li> <p>从节同步</p> </li>     <li> <p>AOF 文件</p> </li>     <li> <p>其它定时任务</p> </li>    </ul>    <p>Redis 服务端采用 Reactor 设计模式,它是一种基于事件的编程模型,主要思想是将请求的处理流程划分成有序的事件序列,比如对于网络请求通常划分为:Accept new connections、Read input to buffer、Process request、 Response 等几个事件。并在一个无限循环的 EventLoop 中不断的处理这些事件。更多关于Reactor,请参考 https://en.wikipedia.org/wiki/Reactor 。</p>    <p>比较特别的是,Redis 中还存在一种时间事件,它其实是定时任务,与请求事件一样,它同样在 EventLoop 中处理。Redis 主线程的主要处理流程如下图:</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/45539195293574258ea4727ea2ce3b73.png"> </p>    <p style="text-align:center">Redis main process playload overview</p>    <p>理解了 Redis 的单进程模型与主要负载情况,很容易明白,想要增加 Redis 吞吐量,只需要尽量降低其它任务的负载量就行了,所以提高 Redis 集群吞吐量的方式主要有:</p>    <h2>提高 Redis 集群吞吐的方法</h2>    <h3>1. 适当调大 cluster-node-timeout 参数</h3>    <p>我们发现当集群规模达到一定程度时,集群间消息通讯开销的带宽是极其可观的。</p>    <p>集群通信机制</p>    <p>Redis 集群采用无中心的方式,为了维护集群状态统一,节点之间需要互相交换消息。Redis采用交换消息的方式被称为 Gossip ,基本思想是节点之间互相交换信息最终所有节点达到一致,更多关于 Gossip 可参考 https://en.wikipedia.org/wiki/Gossip_protocol 。</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/6f23224b35198a04960ce2b975c1c6f1.png"></p>    <p style="text-align:center">Gossip in Redis Cluster</p>    <p>总结集群通信机制的一些要点:</p>    <ul>     <li> <p>Who:集群中每个节点</p> </li>     <li> <p>When:定时发送,默认每隔一秒</p> </li>     <li> <p>What:一个长度为 16,384 的 Bitmap 与集群中其它节点状态的十分之一</p> </li>    </ul>    <p>如何理解集群中节点状态的十分之一?假如集群中有 700 个节点,十分之一就是 70 个节点状态,节点状态具体数据结构见下边代码:</p>    <p><img src="https://simg.open-open.com/show/3ec4c6353c6cdb8d045bec75a2ccb865.jpg"></p>    <p>我们将注意力放在数据包大小与流量上,每个节点状态大小为 104 byte,所以对于 700 个节点的集群,这部分消息的大小为 70 * 104 = 7280,大约为 7KB。另外每个 Gossip 消息还需要携带一个长度为 16,384 的 Bitmap,大小为 2KB,所以每个 Gossip 消息大小大约为 9KB。</p>    <p>随着集群规模的不断扩大,每台主机的流量不断增长,我们怀疑集群间通信的流量已经大于前端请求产生的流量,所以做了以下实验以明确集群流量状况。</p>    <h2>实验过程</h2>    <p>实验环境为:节点 704,物理主机 40 台,每台物理主机有 16 个节点,集群采用一主一从模式,集群中节点 cluster-node-timeout 设置为 30 秒。</p>    <p>实验的大概思路为,分别截取一分钟时间内一个节点,在集群通信端口上,进入方向与出去方向的流量,并统计出消息条数,并最终计算出台主机因为集群间通讯产生的带宽开销。实验具体过程如下:</p>    <p><img src="https://simg.open-open.com/show/42435eb0b9abdc73cdad1c34a06327c8.png"></p>    <p>通过实验能看到进入方向与出去方向在 60s 内收到的数据包数量为 2,700 多个。因为 Redis 规定每个节点每一秒只向一个节点发送数据包,所以正常情况每个节点平均 60s 会收到 60 个数据包,为什么会有这么大的差距?</p>    <p>原来考虑到 Redis 发送对象节点的选取是随机的,所以存在两个节点很久都没有交换消息的情况,为了保证集群状态能在较短时间内达到一致性,Redis 规定当两个节点超过 cluster-node-timeout 的一半时间没有交换消息时,下次心跳交换消息。</p>    <p>解决了这个疑惑,接下来看带宽情况。先看 Redis Cluster 集群通信端口进入方向每台主机的每秒带宽为:</p>    <p>再看 Redis Cluster 集群通信端口出去方向每台主机的每秒带宽为:</p>    <p>所以每台主机进入方向的带宽为:</p>    <p>为什么需要加和</p>    <p>我们以节点 A 主动与节点 B 发生消息交换为例进行说明,交换过程如下图:</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/f0a63634fc67958f34203b922e2a70af.png"></p>    <p style="text-align: center;">Redis Cluster msg exchange</p>    <p>首先 A 随机一个端口向节点 B 的集群通讯端 17,380 发送 PING 消息,之后节点 B 通过 17,380 端口向节点 A 发送 PONG 消息,PONG 消息的内容与 PING 消息的内容相似,每个消息的大小也一样(9KB)。同理当节点 B 主动与节点 A 发生消息交换时也是同样的过程。</p>    <p>可以看出对于节点 A 进入方向的带宽不仅包含集群通讯端口的还包含随机端口的带宽。而对于节点 A 进入方向随机端口的带宽,正是其它节点出去方向的带宽。所以每台主机进入方向的带宽为上边公式计算的加和。同理出去方带宽与进入方带宽一样为 107.5MBit / s。</p>    <p>cluster-node-timeout 对带宽的影响</p>    <p>集群中每台主机的带宽状况如下图:</p>    <p><img src="https://simg.open-open.com/show/7d69a5429c38d121f22450e441f48301.png"></p>    <p>集群带宽图 (http://image.cnthrowable.com/upload/throwable_blog/itbroblog/blog/1468919903506_309.png)</p>    <p>每台主机的进出口带宽都大概在 150MBit / s 左右,其中集群通信带宽占 107.5MBit / s,所以前端请求的带宽占用大概为 45MBit / s。再来看当把 cluster-node-timeout 从 20s 调整到 30s 时,主机的带宽变化情况:</p>    <p><img src="https://simg.open-open.com/show/1a09923fd83990c8dad8ce9b7b558c79.jpg"></p>    <p>带宽变化 (http://image.cnthrowable.com/upload/throwable_blog/itbroblog/blog/1468920308772_304.jpg)</p>    <p>从图中,可以看到带宽下降 50MBit / s,效果非常明显。</p>    <p>经过以上实验我们能得出两个结论:</p>    <ol>     <li> <p>集群间通信占用大量带宽资源</p> </li>     <li> <p>调整 cluster-node-timeout 参数能有效降低带宽</p> </li>    </ol>    <p>Redis Cluster 判定节点为 fail 的机制</p>    <p>但是并不是 cluster-node-timeout 越大越好。当 cluster-node-timeou 增大的时候集群判断节点 fail 的时间会增加,从而 failover 的时间窗口会增加。集群判定节点为fail所需时间的计算公式如下:</p>    <p>当节点向失败节点发出 PING 消息,并且在 cluster-node-timeout 时间内还没有收到失败节点的 PONG 消息,此时判定它为 pfail 。pfail 即部分失败,它是一种中间状态,该状态随着集群心跳不断传播。再经过一半 cluster-node-timeout 时间后,所有节点都与失败的节点发生过心跳并且把它标记为 pfail 。当然也可能不需要这么长时间,因为其它节点之间的心跳同样会传递 pfail 状态,这里姑且以最大时间计算。</p>    <p>Redis Cluster 规定当集群中超过一半以上节点认为一个节点为 pfail 状态时,会把它标记为 fail 状态,并广播给其他所有节点。对于每个节点而言平均一秒钟收到一个心跳包,每次心跳都会携带随机的十分之一的节点个数。所以现在问题抽像为经过多长时间一个节点会积累到一半的 pfail 状态数。这是一个概率问题,因为个人并不擅长概率计算,这里直接取了一个较大概率能满足条件的数值 10。</p>    <p>所以上述公式不是达到这么长时间一定会判定节点为 fail,而是经过这么长时间集群有很大概率会判定节点 fail 。</p>    <p>Redis Cluster 默认 cluster-node-timeout 为 15s,我们将它设置成了 30s。也就是说 700 节点的集群,集群间带宽开销为 104.5MBit / s,判定节点失败时间窗口大概为 55s,实际上大多数情况都小于 55s,因为上边的计算都是按照高位时间估算的。</p>    <p>总而言之, 对于大的 Redis 集群 cluster-node-timeout 参数的需要谨慎设定 。</p>    <p>提高 Redis 集群吞吐的方法</p>    <h3>2. <strong> 控制主节点写命令传播 </strong></h3>    <p>Redis 中主节点的每个写命令传播到以下三个地方:</p>    <ul>     <li> <p>本地 AOF 文件,以持久化持数据</p> </li>     <li> <p>主节点的所有从节点,以保持主从数据同步</p> </li>     <li> <p>本节点的 repl_backlog 缓存,主要为了支持部分同步功能,详见官网 Replcation 文档 Partial resynchronization 部分: http://redis.io/topics/replication</p> </li>    </ul>    <p><img src="https://simg.open-open.com/show/3df741e7a62415326aa2790a60e66265.jpg"></p>    <p>其中 repl_backlog 部分传播在 replicationFeedSlaves 函数中完成。</p>    <p>减少从节点的数量</p>    <p>高可用的集群不应该出现单点,所以 Redis 集群一般都会是主从模式。Redis 的主从同步机制是所有的主节点的写请求,会同步到所有的从节点。如果没有从节点,对于主节点来说,它只需要处理该请求即可。但对于有 N 个从节点的主节点来说,它需要额外的将请求传播给 N 个从节点。请注意这里是对于每个写请求都会这样处理。显而易见从节点的数量对主节点的吞吐量的影响是比较大的,我们采用的是一主一从模式。</p>    <p>因为从节点不需要同步数据,生产环境中观察主节点的 CPU 占用率要比从节点机器要高,这对这条结论起到了佐证的作用。</p>    <p>关闭 AOF 功能</p>    <p>如果开启 AOF 功能,每个写请求都会 Append 到本地 AOF 文件中,虽然 Linux 中写文件操作会利用到操作系统缓存机制,但是如果关闭 AOF 功能主线程中省去了写 AOF 文件的操作,显然会对吞吐量的增加有帮助。</p>    <p>AOF 是 Redis 的一种持久化方式,如果关闭了 AOF 功能怎么保证数据的安全性。我们的做法是定时在从节点 BGSAVE。当然具体采用何种策略需要结合具体情况来决定。</p>    <p>去掉频繁的 Cluster nodes 命令</p>    <p>在运维过程中发现前端请求的平均 RT 增加不少,大概 50% 左右。通过一番调研,发现是 <strong>频繁的 cluster nodes 命令导致</strong> 。</p>    <p>当时集群规模为 500+ 节点,cluster nodes 命令返回的结果大小有 103KB。cluster nodes 命令的频率为:每隔 20s 向集群所有节点发送。</p>    <p>提高 Redis 集群吞吐的方法</p>    <h3>3. 调优 hz 参数</h3>    <p>Redis 会定时做一些任务,任务频率由 hz 参数规定,定时任务主要包含:</p>    <ul>     <li> <p>主动清除过期数据</p> </li>     <li> <p>对数据库进行渐式Rehash</p> </li>     <li> <p>处理客户端超时</p> </li>     <li> <p>更新请求统计信息</p> </li>     <li> <p>发送集群心跳包</p> </li>     <li> <p>发送主从心跳</p> </li>    </ul>    <p>以下是作者对于 hz 参数的介绍:</p>    <p><img src="https://simg.open-open.com/show/57c73fc1956d7cf589f19b0d1a88d16c.jpg"></p>    <p>我们没有修改 hz 参数的经验,由于其复杂性,并且在 hz 默认值 10 的情况下,理论上不会对 Redis 吞吐量产生太大影响,建议没有经验的情况下不要修改该参数。</p>    <p>参考资料</p>    <p>关于 Redis Cluster 可以参考官方的两篇文档:</p>    <ul>     <li> <p>Redis cluster tutorial: http://www.redis.io/topics/cluster-tutorial</p> </li>     <li> <p>Redis Cluster specification: http://www.redis.io/topics/cluster-spec</p> </li>    </ul>    <p> </p>    <p>来自:http://mp.weixin.qq.com/s?__biz=MzAwMDU1MTE1OQ==&mid=2653547585&idx=1&sn=9a664b16f656f757632cd4eb29f9a5dc&scene=0#wechat_redirect</p>    <p> </p>    
 本文由用户 WilHennessy 自行上传分享,仅供网友学习交流。所有权归原作者,若您的权利被侵害,请联系管理员。
 转载本站原创文章,请注明出处,并保留原始链接、图片水印。
 本站是一个以用户分享为主的开源技术平台,欢迎各类分享!
 本文地址:https://www.open-open.com/lib/view/open1469933226345.html
Redis 集群系统 集群/负载均衡