Storm 的可靠性保证测试
<p>Storm 是一个分布式的实时计算框架,可以很方便地对流式数据进行实时处理和分析,能运用在实时分析、在线数据挖掘、持续计算以及分布式 RPC 等场景下。Storm 的实时性可以使得数据从收集到处理展示在秒级别内完成,从而为业务方决策提供实时的数据支持。</p> <p>在美团点评公司内部,实时计算主要应用场景包括实时日志解析、用户行为分析、实时消息推送、消费趋势展示、实时新客判断、实时活跃用户数统计等。这些数据提供给各事业群,并作为他们实时决策的有力依据,弥补了离线计算“T+1”的不足。</p> <p>在实时计算中,用户不仅仅关心时效性的问题,同时也关心消息处理的成功率。本文将通过实验验证 Storm 的消息可靠性保证机制,文章分为消息保证机制、测试目的、测试环境、测试场景以及总结等五节。</p> <h2><strong>Storm 的消息保证机制</strong></h2> <p>Storm 提供了三种不同层次的消息保证机制,分别是 At Most Once、At Least Once 以及 Exactly Once。消息保证机制依赖于消息是否被完全处理。</p> <h3><strong>消息完全处理</strong></h3> <p>每个从 Spout(Storm 中数据源节点)发出的 Tuple(Storm 中的最小消息单元)可能会生成成千上万个新的 Tuple,形成一棵 Tuple 树,当整棵 Tuple 树的节点都被成功处理了,我们就说从 Spout 发出的 Tuple 被完全处理了。 我们可以通过下面的例子来更好地诠释消息被完全处理这个概念:</p> <pre> <code class="language-java">TopologyBuilder builder = new TopologyBuilder(); builder.setSpout("sentences", new KafkaSpout(spoutConfig), spoutNum); builder.setBolt("split", new SplitSentence(), 10) .shuffleGrouping("sentences"); builder.setBolt("count", new WordCount(), 20) .fieldsGrouping("split", new Fields("word"));</code></pre> <p>这个 Topology 从 Kafka(一个开源的分布式消息队列)读取信息发往下游,下游的 Bolt 将收到的句子分割成单独的单词,并进行计数。每一个从 Spout 发送出来的 Tuple 会衍生出多个新的 Tuple,从 Spout 发送出来的 Tuple 以及后续衍生出来的 Tuple 形成一棵 Tuple 树,下图是一棵 Tuple 树示例:</p> <p style="text-align:center"><img src="https://simg.open-open.com/show/c34abae704633f53dbe12e2262d6307f.png"></p> <p>上图中所有的 Tuple 都被成功处理了,我们才认为 Spout 发出的 Tuple 被完全处理。如果在一个固定的时间内(这个时间可以配置,默认为 30 秒),有至少一个 Tuple 处理失败或超时,则认为整棵 Tuple 树处理失败,即从 Spout 发出的 Tuple 处理失败。</p> <h3>如何实现不同层次的消息保证机制</h3> <p style="text-align:center"><img src="https://simg.open-open.com/show/8948ea64163441d43c71bf70805ebc9f.png"></p> <p>Tuple 的完全处理需要 Spout、Bolt 以及 Acker(Storm 中用来记录某棵 Tuple 树是否被完全处理的节点)协同完成,如上图所示。从 Spout 发送 Tuple 到下游,并把相应信息通知给 Acker,整棵 Tuple 树中某个 Tuple 被成功处理了都会通知 Acker,待整棵 Tuple 树都被处理完成之后,Acker 将成功处理信息返回给 Spout;如果某个 Tuple 处理失败,或者超时,Acker 将会给 Spout 发送一个处理失败的消息,Spout 根据 Acker 的返回信息以及用户对消息保证机制的选择判断是否需要进行消息重传。</p> <p>Storm 提供的三种不同消息保证机制中。利用 Spout、Bolt 以及 Acker 的组合我们可以实现 At Most Once 以及 At Least Once 语义,Storm 在 At Least Once 的基础上进行了一次封装(Trident),从而实现 Exactly Once 语义。</p> <p>Storm 的消息保证机制中,如果需要实现 At Most Once 语义,只需要满足下面任何一条即可:</p> <ul> <li> <p>关闭 ACK 机制,即 Acker 数目设置为 0</p> </li> <li> <p>Spout 不实现可靠性传输</p> <ul> <li>Spout 发送消息是使用不带 message ID 的 API</li> <li>不实现 fail 函数</li> </ul> </li> <li> <p>Bolt 不把处理成功或失败的消息发送给 Acker</p> </li> </ul> <p>如果需要实现 At Least Once 语义,则需要同时保证如下几条:</p> <ul> <li> <p>开启 ACK 机制,即 Acker 数目大于 0</p> </li> <li> <p>Spout 实现可靠性传输保证</p> <ul> <li>Spout 发送消息时附带 message 的 ID</li> <li>如果收到 Acker 的处理失败反馈,需要进行消息重传,即实现 fail 函数</li> </ul> </li> <li> <p>Bolt 在处理成功或失败后需要调用相应的方法通知 Acker</p> </li> </ul> <p>实现 Exactly Once 语义,则需要在 At Least Once 的基础上进行状态的存储,用来防止重复发送的数据被重复处理,在 Storm 中使用 Trident API 实现。</p> <p>下图中,每种消息保证机制中左边的字母表示上游发送的消息,右边的字母表示下游接收到的消息。从图中可以知道,At Most Once 中,消息可能会丢失(上游发送了两个 A,下游只收到一个 A);At Least Once 中,消息不会丢失,可能重复(上游只发送了一个 B ,下游收到两个 B);Exactly Once 中,消息不丢失、不重复,因此需要在 At Least Once 的基础上保存相应的状态,表示上游的哪些消息已经成功发送到下游,防止同一条消息发送多次给下游的情况。</p> <p style="text-align:center"><img src="https://simg.open-open.com/show/eb74ad0a84236449abc949ee113b0816.png"></p> <h2><strong>测试目的</strong></h2> <p>Storm 官方提供 At Most Once、At Least Once 以及 Exactly Once 三种不同层次的消息保证机制,我们希望通过相关测试,达到如下目的:</p> <ul> <li> <p>三种消息保证机制的表现,是否与官方的描述相符;</p> </li> <li> <p>At Most Once 语义下,消息的丢失率和什么有关系、关系如何;</p> </li> <li> <p>At Least Once 语义下,消息的重复率和什么有关系、关系如何。</p> </li> </ul> <h2><strong>测试环境</strong></h2> <p>本文的测试环境如下: 每个 worker(worker 为一个 物理 JVM 进程,用于运行实际的 Storm 作业)分配 1 CPU 以及 1.6G 内存。Spout、Bolt、Acker 分别跑在单独的 worker 上。并通过在程序中控制抛出异常以及人工 Kill Spout/Bolt/Acker 的方式来模拟实际情况中的异常情况。</p> <p>三种消息保证机制的测试均由 Spout 从 Kafka 读取测试数据,经由相应 Bolt 进行处理,然后发送到 Kafka,并将 Kafka 上的数据同步到 MySQL 方便最终结果的统计,如下图所示:</p> <p style="text-align:center"><img src="http://static.open-open.com/lib/uploadImg/20161021/20161021144606_850.png"></p> <p>测试数据为 Kafka 上顺序保存的一系列纯数字,数据量分别有十万、五十万、一百万等,每个数字在每个测试样例中出现且仅出现一次。</p> <h2><strong>测试场景</strong></h2> <p>对于三种不同的消息保证机制,我们分别设置了不同的测试场景,来进行充分的测试。其中为了保证 Spout/Bolt/Acker 发生异常的情况下不影响其他节点,在下面的测试中,所有的节点单独运行在独立的 Worker 上。</p> <h3><strong>At Most Once</strong></h3> <p>从背景中可以得知,如果希望实现 At Most Once 语义,将 Acker 的数目设置为 0 即可,本文的测试过程中通过把设置 Acker 为 0 来进行 At Most Once 的测试。</p> <p>输入数据</p> <p>保存在 Kafka 上的一系列纯数字,数据量从十万到五百万不等,每个测试样例中,同一个数字在 Kafka 中出现且仅出现一次。</p> <p>测试结果</p> <table> <thead> <tr> <th>异常次数</th> <th>测试数据总量</th> <th>结果集中不同 Tuple 的总量</th> <th>丢失的 Tuple 数据量</th> <th>Tuple 的丢失百分比</th> <th>Tuple 的重复量</th> </tr> </thead> <tbody> <tr> <td>0</td> <td>500000</td> <td>500000</td> <td>0</td> <td>0%</td> <td>0</td> </tr> <tr> <td>0</td> <td>1000000</td> <td>1000000</td> <td>0</td> <td>0%</td> <td>0</td> </tr> <tr> <td>0</td> <td>2000000</td> <td>2000000</td> <td>0</td> <td>0%</td> <td>0</td> </tr> <tr> <td>0</td> <td>3000000</td> <td>3000000</td> <td>0</td> <td>0%</td> <td>0</td> </tr> </tbody> </table> <table> <thead> <tr> <th>异常次数</th> <th>测试数据总量</th> <th>结果集中不同 Tuple 的总量</th> <th>丢失的 Tuple 数据量</th> <th>Tuple 的丢失百分比</th> <th>Tuple 的重复量</th> </tr> </thead> <tbody> <tr> <td>1</td> <td>3000000</td> <td>2774940</td> <td>225060</td> <td>7.50%</td> <td>0</td> </tr> <tr> <td>2</td> <td>3000000</td> <td>2307087</td> <td>692913</td> <td>23.09%</td> <td>0</td> </tr> <tr> <td>3</td> <td>3000000</td> <td>2082823</td> <td>917177</td> <td>30.57%</td> <td>0</td> </tr> <tr> <td>4</td> <td>3000000</td> <td>1420725</td> <td>1579275</td> <td>52.64%</td> <td>0</td> </tr> </tbody> </table> <p>结论</p> <p>不发生异常的情况下,消息能够不丢不重;Bolt 发生异常的情况下,消息会丢失,不会重复,其中消息的 <strong>丢失数目</strong> 与 <strong>异常次数正相关</strong> 。与官方文档描述相符,符合预期。</p> <h3><strong>At Least Once</strong></h3> <p>为了实现 At Least Once 语义,需要 Spout、Bolt、Acker 进行配合。我们使用 Kafka-Spout 并通过自己管理 offset 的方式来实现可靠的 Spout;Bolt 通过继承 BaseBasicBolt,自动帮我们建立 Tuple 树以及消息处理之后通知 Acker;将 Acker 的数目设置为 1,即打开 ACK 机制,这样整个 Topology 即可提供 At Least Once 的语义。</p> <p><strong>测试数据</strong></p> <p>Kafka 上保存的十万到五十万不等的纯数字,其中每个测试样例中,每个数字在 Kafka 中出现且仅出现一次。</p> <p><strong>测试结果</strong></p> <p>Acker 发生异常的情况</p> <table> <thead> <tr> <th>异常的次数</th> <th>测试数据总量</th> <th>结果集中不重复的 Tuple 数</th> <th>数据重复的次数(>1)</th> <th>出现重复的 Tuple 数</th> <th>数据丢失数量</th> <th>最大积压量</th> </tr> </thead> <tbody> <tr> <td>0</td> <td>100000</td> <td>100000</td> <td>-</td> <td>-</td> <td>0</td> <td>2000(默认值)</td> </tr> <tr> <td>0</td> <td>200000</td> <td>200000</td> <td>-</td> <td>-</td> <td>0</td> <td>2000</td> </tr> <tr> <td>0</td> <td>300000</td> <td>300000</td> <td>-</td> <td>-</td> <td>0</td> <td>2000</td> </tr> <tr> <td>0</td> <td>400000</td> <td>400000</td> <td>-</td> <td>-</td> <td>0</td> <td>2000</td> </tr> </tbody> </table> <table> <thead> <tr> <th>异常的次数</th> <th>测试数据总量</th> <th>结果集中不重复的 Tuple 数</th> <th>数据重复的次数(>1)</th> <th>出现重复的 Tuple 数</th> <th>数据丢失数量</th> <th>最大积压量</th> </tr> </thead> <tbody> <tr> <td>1</td> <td>100000</td> <td>100000</td> <td>2</td> <td>2000</td> <td>0</td> <td>2000</td> </tr> <tr> <td>2</td> <td>100000</td> <td>100000</td> <td>2</td> <td>4001</td> <td>0</td> <td>2000</td> </tr> <tr> <td>3</td> <td>100000</td> <td>100000</td> <td>2</td> <td>6000</td> <td>0</td> <td>2000</td> </tr> <tr> <td>4</td> <td>100000</td> <td>100000</td> <td>2</td> <td>8000</td> <td>0</td> <td>2000</td> </tr> </tbody> </table> <p>Spout 发生异常的情况</p> <table> <thead> <tr> <th>异常的次数</th> <th>测试数据总量</th> <th>结果集中不重复的 Tuple 数</th> <th>数据重复的次数(>1)</th> <th>出现重复的 Tuple 数</th> <th>数据丢失数量</th> </tr> </thead> <tbody> <tr> <td>0</td> <td>100000</td> <td>100000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>0</td> <td>200000</td> <td>200000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>0</td> <td>300000</td> <td>300000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>0</td> <td>400000</td> <td>400000</td> <td>-</td> <td>-</td> <td>0</td> </tr> </tbody> </table> <table> <thead> <tr> <th>异常的次数</th> <th>测试数据总量</th> <th>结果集中不重复的 Tuple 数</th> <th>数据重复的次数(>1)</th> <th>出现重复的 Tuple 数</th> <th>数据丢失数量</th> </tr> </thead> <tbody> <tr> <td>1</td> <td>100000</td> <td>100000</td> <td>2</td> <td>2052</td> <td>0</td> </tr> <tr> <td>2</td> <td>100000</td> <td>100000</td> <td>2</td> <td>4414</td> <td>0</td> </tr> <tr> <td>4</td> <td>100000</td> <td>100000</td> <td>2</td> <td>9008</td> <td>0</td> </tr> <tr> <td>6</td> <td>100000</td> <td>100000</td> <td>2</td> <td>9690</td> <td>0</td> </tr> <tr> <td> </td> <td> </td> <td> </td> <td>3</td> <td>1675</td> <td>0</td> </tr> </tbody> </table> <p>Bolt 发生异常的情况</p> <p>调用 emit 函数之前发生异常</p> <table> <thead> <tr> <th>异常次数</th> <th>结果集中不重复的 Tuple 数</th> <th>数据重复的次数 (>1)</th> <th>出现重复的 Tuple 数</th> <th>数据丢失量</th> </tr> </thead> <tbody> <tr> <td>0</td> <td>100000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>0</td> <td>200000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>0</td> <td>300000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>0</td> <td>400000</td> <td>-</td> <td>-</td> <td>0</td> </tr> </tbody> </table> <table> <thead> <tr> <th>异常次数</th> <th>结果集中不重复的 Tuple 数</th> <th>数据重复的次数 (>1)</th> <th>出现重复的 Tuple 数</th> <th>数据丢失量</th> </tr> </thead> <tbody> <tr> <td>1</td> <td>100000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>2</td> <td>100000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>4</td> <td>100000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>8</td> <td>100000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>10</td> <td>100000</td> <td>-</td> <td>-</td> <td>0</td> </tr> </tbody> </table> <p>调用 emit 函数之后发生异常</p> <table> <thead> <tr> <th>异常次数</th> <th>结果集中不重复的 Tuple 数</th> <th>数据重复的次数(>1)</th> <th>出现重复的 Tuple 数</th> <th>数据丢失数量</th> </tr> </thead> <tbody> <tr> <td>0</td> <td>100000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>0</td> <td>200000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>0</td> <td>300000</td> <td>-</td> <td>-</td> <td>0</td> </tr> <tr> <td>0</td> <td>400000</td> <td>-</td> <td>-</td> <td>0</td> </tr> </tbody> </table> <table> <thead> <tr> <th>异常次数</th> <th>结果集中不重复的 Tuple 数</th> <th>数据重复的次数(>1)</th> <th>出现重复的 Tuple 数</th> <th>数据丢失数量</th> </tr> </thead> <tbody> <tr> <td>1</td> <td>100000</td> <td>2</td> <td>2</td> <td>0</td> </tr> <tr> <td>2</td> <td>100000</td> <td>2</td> <td>3</td> <td>0</td> </tr> <tr> <td>4</td> <td>100000</td> <td>2</td> <td>5</td> <td>0</td> </tr> <tr> <td>8</td> <td>100000</td> <td>2</td> <td>9</td> <td>0</td> </tr> <tr> <td>10</td> <td>100000</td> <td>2</td> <td>11</td> <td>0</td> </tr> </tbody> </table> <p><strong>结论</strong></p> <p>从上面的表格中可以得到,消息不会丢失,可能发生重复,重复的数目与异常的情况相关。</p> <ul> <li> <p>不发生任何异常的情况下,消息不会重复不会丢失。</p> </li> <li> <p>Spout 发生异常的情况下,消息的重复数目约等于 spout.max.pending(Spout 的配置项,每次可以发送的最多消息条数) * NumberOfException(异常次数)。</p> </li> <li> <p>Acker 发生异常的情况下,消息重复的数目等于 spout.max.pending * NumberOfException。</p> </li> <li> <p>Bolt 发生异常的情况:</p> <ul> <li>emit 之前发生异常,消息不会重复。</li> <li>emit 之后发生异常,消息重复的次数等于异常的次数。</li> </ul> </li> </ul> <p>结论与官方文档所述相符,每条消息至少发送一次,保证数据不会丢失,但可能重复,符合预期。</p> <h3><strong>Exactly Once</strong></h3> <p>对于 Exactly Once 的语义,利用 Storm 中的 Trident 来实现。</p> <p><strong>测试数据</strong></p> <p>Kafka 上保存的一万到一百万不等的数字,每个数字在每次测试样例中出现且仅出现一次。</p> <p><strong>测试结果</strong></p> <p>Spout 发生异常情况</p> <table> <thead> <tr> <th>异常数</th> <th>测试数据量</th> <th>结果集中不重复的 Tuple 数</th> <th>结果集中所有 Tuple 的总和</th> </tr> </thead> <tbody> <tr> <td>1</td> <td>10000</td> <td>10000</td> <td>50005000</td> </tr> <tr> <td>2</td> <td>10000</td> <td>10000</td> <td>50005000</td> </tr> <tr> <td>3</td> <td>10000</td> <td>10000</td> <td>50005000</td> </tr> </tbody> </table> <p>Acker 发生异常的情况</p> <table> <thead> <tr> <th>异常数</th> <th>测试数据量</th> <th>结果集中不重复的 Tuple 数</th> <th>结果集中所有 Tuple 的总和</th> </tr> </thead> <tbody> <tr> <td>1</td> <td>10000</td> <td>10000</td> <td>50005000</td> </tr> <tr> <td>2</td> <td>10000</td> <td>10000</td> <td>50005000</td> </tr> <tr> <td>3</td> <td>10000</td> <td>10000</td> <td>50005000</td> </tr> </tbody> </table> <p>Bolt 发生异常的情况</p> <table> <thead> <tr> <th>异常数</th> <th>测试数据量</th> <th>结果集中不重复的 Tuple 数</th> <th>结果集中所有 Tuple 的总和</th> </tr> </thead> <tbody> <tr> <td>1</td> <td>10000</td> <td>10000</td> <td>50005000</td> </tr> <tr> <td>2</td> <td>10000</td> <td>10000</td> <td>50005000</td> </tr> <tr> <td>3</td> <td>10000</td> <td>10000</td> <td>50005000</td> </tr> </tbody> </table> <p><strong>结论</strong></p> <p>在所有情况下,最终结果集中的消息不会丢失,不会重复,与官方文档中的描述相符,符合预期。</p> <h2><strong>总结</strong></h2> <p>对 Storm 提供的三种不同消息保证机制,用户可以根据自己的需求选择不同的消息保证机制。</p> <h3><strong>不同消息可靠性保证的使用场景</strong></h3> <p>对于 Storm 提供的三种消息可靠性保证,优缺点以及使用场景如下所示:</p> <table> <thead> <tr> <th>可靠性保证层次</th> <th>优点</th> <th>缺点</th> <th>使用场景</th> </tr> </thead> <tbody> <tr> <td>At most once</td> <td>处理速度快</td> <td>数据可能丢失</td> <td>都处理速度要求高,且对数据丢失容忍度高的场景</td> </tr> <tr> <td>At least once</td> <td>数据不会丢失</td> <td>数据可能重复</td> <td>不能容忍数据丢失,可以容忍数据重复的场景</td> </tr> <tr> <td>Exactly once</td> <td>数据不会丢失,不会重复</td> <td>处理速度慢</td> <td>对数据不丢不重性质要求非常高,且处理速度要求没那么高,比如支付金额</td> </tr> </tbody> </table> <h3><strong>如何实现不同层次的消息可靠性保证</strong></h3> <p>对于 At Least Once 的保证需要做如下几步:</p> <ol> <li> <p>需要开启 ACK 机制,即 Topology 中的 Acker 数量大于零;</p> </li> <li> <p>Spout 是可靠的。即 Spout 发送消息的时候需要附带 msgId,并且实现失败消息重传功能(fail 函数 ,可以参考下面的 Spout 代码);</p> </li> <li> <p>Bolt 在发送消息时,需要调用 emit(inputTuple, outputTuple)进行建立 anchor 树(参考下面建立 anchor 树的代码),并且在成功处理之后调用 ack ,处理失败时调用 fail 函数,通知 Acker。</p> </li> </ol> <p>不满足以上三条中任意一条的都只提供 At Most Once 的消息可靠性保证,如果希望得到 Exactly Once 的消息可靠性保证,可以使用 Trident 进行实现。</p> <h3><strong>不同层测的可靠性保证如何实现</strong></h3> <p><strong>如何实现可靠的 Spout</strong></p> <p>实现可靠的 Spout 需要在 nextTuple 函数中发送消息时,调用带 msgID 的 emit 方法,然后实现失败消息的重传(fail 函数),参考如下示例:</p> <pre> <code class="language-java">/** * 想实现可靠的 Spout,需要实现如下两点 * 1. 在 nextTuple 函数中调用 emit 函数时需要带一个 msgId,用来表示当前的消息(如果消息发送失败会用 msgId 作为参数回调 fail 函数) * 2. 自己实现 fail 函数,进行重发(注意,在 storm 中没有 msgId 和消息的对应关系,需要自己进行维护) */ public void nextTuple() { //设置 msgId 和 Value 一样,方便 fail 之后重发 collector.emit(new Values(curNum + "", round + ""), curNum + ":" + round); } @Override public void fail(Object msgId) {//消息发送失败时的回调函数 String tmp = (String)msgId; //上面我们设置了 msgId 和消息相同,这里通过 msgId 解析出具体的消息 String[] args = tmp.split(":"); //消息进行重发 collector.emit(new Values(args[0], args[1]), msgId); }</code></pre> <p><strong>如何实现可靠的 Bolt</strong></p> <p>Storm 提供两种不同类型的 Bolt,分别是 BaseRichBolt 和 BaseBasicBolt,都可以实现可靠性消息传递,不过 BaseRichBolt 需要自己做很多周边的事情(建立 anchor 树,以及手动 ACK/FAIL 通知 Acker),使用场景更广泛,而 BaseBasicBolt 则由 Storm 帮忙实现了很多周边的事情,实现起来方便简单,但是使用场景单一。如何用这两个 Bolt 实现(不)可靠的消息传递如下所示:</p> <pre> <code class="language-java">//BaseRichBolt 实现不可靠消息传递 public class SplitSentence extends BaseRichBolt {//不建立 anchor 树的例子 OutputCollector _collector; public void prepare(Map conf, TopologyContext context, OutputCollector collector) { _collector = collector; } public void execute(Tuple tuple) { String sentence = tuple.getString(0); for(String word: sentence.split(" ")) { _collector.emit(new Values(word)); // 不建立 anchor 树 } _collector.ack(tuple); //手动 ack,如果不建立 anchor 树,是否 ack 是没有区别的,这句可以进行注释 } public void declareOutputFields(OutputFieldsDeclarer declarer) { declarer.declare(new Fields("word")); } } //BaseRichBolt 实现可靠的 Bolt public class SplitSentence extends BaseRichBolt {//建立 anchor 树以及手动 ack 的例子 OutputCollector _collector; public void prepare(Map conf, TopologyContext context, OutputCollector collector) { _collector = collector; } public void execute(Tuple tuple) { String sentence = tuple.getString(0); for(String word: sentence.split(" ")) { _collector.emit(tuple, new Values(word)); // 建立 anchor 树 } _collector.ack(tuple); //手动 ack,如果想让 Spout 重发该 Tuple,则调用 _collector.fail(tuple); } public void declareOutputFields(OutputFieldsDeclarer declarer) { declarer.declare(new Fields("word")); } } 下面的示例会可以建立 Multi-anchoring List<Tuple> anchors = new ArrayList<Tuple>(); anchors.add(tuple1); anchors.add(tuple2); _collector.emit(anchors, new Values(1, 2, 3)); //BaseBasicBolt 是吸纳可靠的消息传递 public class SplitSentence extends BaseBasicBolt {//自动建立 anchor,自动 ack public void execute(Tuple tuple, BasicOutputCollector collector) { String sentence = tuple.getString(0); for(String word: sentence.split(" ")) { collector.emit(new Values(word)); } } public void declareOutputFields(OutputFieldsDeclarer declarer) { declarer.declare(new Fields("word")); } }</code></pre> <p><strong>Trident</strong></p> <p>在 Trident 中,Spout 和 State 分别有三种状态,如下图所示:</p> <p style="text-align:center"><img src="https://simg.open-open.com/show/ab46ee8d363f3833b744679524be7b30.png"></p> <p>其中表格中的 Yes 表示相应的 Spout 和 State 组合可以实现 Exactly Once 语义,No 表示相应的 Spout 和 State 组合不保证 Exactly Once 语义。下面的代码是一个 Trident 示例:</p> <pre> <code class="language-java">OpaqueTridentKafkaSpout spout = new OpaqueTridentKafkaSpout(spoutConf); //Opaque Spout //TransactionalTridentKafkaSpout spout = new TransactionalTridentKafkaSpout(spoutConf); //Transaction Spout TridentTopology topology = new TridentTopology(); String spoutTxid = Utils.kafkaSpoutGroupIdBuilder(topologyConfig.kafkaSrcTopic, topologyConfig.topologyName); Stream stream = topology.newStream(spoutTxid, spout) .name("new stream") .parallelismHint(1); // kafka config KafkaProducerConfig kafkaProducerConfig = new KafkaProducerConfig(); //KafkaProducerConfig 仅对 kafka 相关配置进行了封装,具体可以参考 TridentKafkaStateFactory2(Map<String, String> config) Map<String, String> kafkaConfigs = kafkaProducerConfig.loadFromConfig(topologyConfig); TridentToKafkaMapper tridentToKafkaMapper = new TridentToKafkaMapper(); //TridentToKafkaMapper 继承自 TridentTupleToKafkaMapper<String, String>,实现 getMessageFromTuple 接口,该接口中返回 tridentTuple.getString(0); String dstTopic = "test__topic_for_all"; TridentKafkaStateFactory2 stateFactory = new TridentKafkaStateFactory2(kafkaConfigs); stateFactory.withTridentTupleToKafkaMapper(tridentToKafkaMapper); stateFactory.withKafkaTopicSelector(new DefaultTopicSelector(dstTopic)); stream.each(new Fields("bytes"), new AddMarkFunction(), new Fields("word")) //从spout 出来数据是一个 bytes 类型的数据,第二个是参数是自己的处理函数,第三个参数是处理函数的输出字段 .name("write2kafka") .partitionPersist(stateFactory //将数据写入到 Kafka 中,可以保证写入到 Kafka 的数据是 exactly once 的 , new Fields("word") , new TridentKafkaUpdater()) .parallelismHint(1);</code></pre> <p> </p> <p> </p> <p> </p> <p>来自:http://tech.meituan.com/test-of-storms-reliability.html</p> <p> </p>
本文由用户 pamler 自行上传分享,仅供网友学习交流。所有权归原作者,若您的权利被侵害,请联系管理员。
转载本站原创文章,请注明出处,并保留原始链接、图片水印。
本站是一个以用户分享为主的开源技术平台,欢迎各类分享!