博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
kafka-Streams
阅读量:4582 次
发布时间:2019-06-09

本文共 3858 字,大约阅读时间需要 12 分钟。

第 6 章 kafka Streams

6.1 概述

6.1.1 Kafka Streams

  Kafka Streams。Apache Kafka 开源项目的一个组成部分。是一个功能强大,易于使用的
库。用于在 Kafka 上构建高可分布式、拓展性,容错的应用程序。

6.1.2 Kafka Streams 特点

1)功能强大
  高扩展性,弹性,容错
2)轻量级
  无需专门的集群
  一个库,而不是框架
3)完全集成
  100%的 Kafka 0.10.0 版本兼容
  易于集成到现有的应用程序
4)实时性
  毫秒级延迟
  并非微批处理
  窗口允许乱序数据
  允许迟到数据
6.1.3 为什么要有 Kafka Stream
  当前已经有非常多的流式处理系统,最知名且应用最多的开源流式处理系统有 Spark
Streaming 和 Apache Storm。Apache Storm 发展多年,应用广泛,提供记录级别的处理能力,
当前也支持 SQL on Stream。而 Spark Streaming 基于 Apache Spark,可以非常方便与图计算,
SQL 处理等集成,功能强大,对于熟悉其它 Spark 应用开发的用户而言使用门槛低。另外,
目前主流的 Hadoop 发行版,如 Cloudera 和 Hortonworks,都集成了 Apache Storm 和 Apache
Spark,使得部署更容易。
  既然 Apache Spark 与 Apache Storm 拥用如此多的优势,那为何还需要 Kafka Stream 呢?
主要有如下原因。
  第一,Spark 和 Storm 都是流式处理框架,而 Kafka Stream 提供的是一个基于 Kafka 的
流式处理类库。框架要求开发者按照特定的方式去开发逻辑部分,供框架调用。开发者很难
了解框架的具体运行方式,从而使得调试成本高,并且使用受限。而 Kafka Stream 作为流式
处理类库,直接提供具体的类给开发者调用,整个应用的运行方式主要由开发者控制,方便
使用和调试。
 

 

 
  第二,虽然 Cloudera 与 Hortonworks 方便了 Storm 和 Spark 的部署,但是这些框架的部
署仍然相对复杂。而
Kafka Stream 作为类库,可以非常方便的嵌入应用程序中,它对应用的
打包和部署基本没有任何要求。
  第三,就流式处理系统而言,基本都支持 Kafka 作为数据源。例如 Storm 具有专门的
kafka-spout,而 Spark 也提供专门的 spark-streaming-kafka 模块。事实上,Kafka 基本上是主
流的流式处理系统的标准数据源。换言之,
大部分流式系统中都已部署了 Kafka,此时使用
Kafka Stream 的成本非常低。
  第四,
使用 Storm 或 Spark Streaming 时,需要为框架本身的进程预留资源,如 Storm
的 supervisor 和 Spark on YARN 的 node manager。即使对于应用实例而言,框架本身也会占
用部分资源,如 Spark Streaming 需要为 shuffle 和 storage 预留内存。但是 Kafka 作为类库不
占用系统资源。
  第五,
由于 Kafka 本身提供数据持久化,因此 Kafka Stream 提供滚动部署和滚动升级以
及重新计算的能力。
  第六,由于 Kafka Consumer Rebalance 机制,
Kafka Stream 可以在线动态调整并行度。 
 
 
6.2 Kafka Stream 数据清洗案例
0)需求:
实时处理单词带有”>>>”前缀的内容。例如输入”atguigu>>>ximenqing”,最终处理成
“ximenqing”
 
1)需求分析: 
 
数据清洗案例:

 

 
2)案例实操
(1)创建一个工程,并添加 jar 包
(2)创建主类 
 
package com.atlxl;import com.atlxl.stream.LogProcessor;import org.apache.kafka.streams.KafkaStreams;import org.apache.kafka.streams.processor.Processor;import org.apache.kafka.streams.processor.ProcessorSupplier;import org.apache.kafka.streams.processor.TopologyBuilder;import java.util.Properties;public class KafkaStream {    public static void main(String[] args) {        //创建拓扑对象        TopologyBuilder builder = new TopologyBuilder();        //创建配置文件        Properties properties = new Properties();        properties.put("bootstrap.servers","hadoop102:9092");        properties.put("application.id", "kafkaStream");        //构建拓扑结构        builder.addSource("SOURCE", "first").addProcessor("PROCESSOR", new ProcessorSupplier() {            @Override            public Processor get() {                return new LogProcessor() {                };            }        }, "SOURCE").addSink("SINK", "second", "PROCESSOR");        KafkaStreams kafkaStreams = new KafkaStreams(builder, properties);        kafkaStreams.start();    }}

 

 

(3)具体业务处理 
package com.atlxl.stream;import org.apache.kafka.streams.processor.Processor;import org.apache.kafka.streams.processor.ProcessorContext;public class LogProcessor implements Processor
{ private ProcessorContext context; @Override public void init(ProcessorContext processorContext) { context = processorContext; } @Override public void process(byte[] bytes, byte[] bytes2) { //获取一行数据 String line = new String(bytes2); //去除 ">>>" line = line.replaceAll(">>>", ""); bytes2 = line.getBytes(); context.forward(bytes, bytes2); } @Override public void punctuate(long l) { } @Override public void close() { }}

 

 

 

(4)运行程序
 
(5)在 hadoop102 上启动生产者 
[lxl@hadoop102 kafka]$ bin/kafka-console-producer.sh  --broker-list hadoop102:9092 --topic first>hello>hello>>>lxl

 

 
(6)在 hadoop102 上启动消费者 
 
 
[lxl@hadoop102 kafka]$ bin/kafka-console-consumer.sh --zookeeper hadoop102:2181 --topic secondUsing the ConsoleConsumer with old consumer is deprecated and will be removed in a future major releashellohellolxl

 

 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

转载于:https://www.cnblogs.com/LXL616/p/11003955.html

你可能感兴趣的文章
Kubernetes的Cron Job
查看>>
41岁中兴员工:这可能是我第5次失业_中兴被美国制裁的思考
查看>>
go工程组织规范
查看>>
排序---冒泡排序
查看>>
(原)欧式距离变换
查看>>
ASP.Net各个命名空间及作用
查看>>
latex用fonspec包需要xelatex编译
查看>>
java必备技能
查看>>
oracle里的统计信息
查看>>
PostgreSQL 监控磁盘使用
查看>>
HDU 4586 Play the Dice(数学期望)
查看>>
codeforce1029B B. Creating the Contest(简单dp,简单版单调栈)
查看>>
VC ++ 数据库资料收集理解
查看>>
ie11浏览器版本不识别
查看>>
千万要避免的五种程序注释方式
查看>>
redmine 1.2.1安装和安装会出现的问题
查看>>
SElinux的简介与用法
查看>>
TypeError: decoding Unicode is not supported
查看>>
Go:坑之for range
查看>>
取消后续事件
查看>>