流处理技术的演变
在开源世界里,Apache Storm项目是流处理的先锋。Storm提供了低延迟的流处理,但是它为实时性付出了一些代价:很难实现高吞吐,并且其正确性没能达到通常所需的水平,换句话说,它并不能保证exactly-once,即便是它能够保证的正确性级别,其开销也相当大。
在低延迟和高吞吐的流处理系统中维持良好的容错性是非常困难的,但是为了得到有保障的准确状态,人们想到了一种替代方法:将连续时间中的流数据分割成一系列微小的批量作业。如果分割得足够小(即所谓的微批处理作业),计算就几乎可以实现真正的流处理。因为存在延迟,所以不可能做到完全实时,但是每个简单的应用程序都可以实现仅有几秒甚至几亚秒的延迟。这就是在Spark批处理引擎上运行的Spark Streaming所使用的方法。
更重要的是,使用微批处理方法,可以实现exactly-once语义,从而保障状态的一致性。如果一个微批处理失败了,它可以重新运行,这比连续的流处理方法更容易。Storm Trident是对Storm的延伸,它的底层流处理引擎就是基于微批处理方法来进行计算的,从而实现了exactly-once语义,但是在延迟性方面付出了很大的代价。
对于Storm Trident以及Spark Streaming等微批处理策略,只能根据批量作业时间的倍数进行分割,无法根据实际情况分割事件数据,并且,对于一些对延迟比较敏感的作业,往往需要开发者在写业务代码时花费大量精力来提升性能。这些灵活性和表现力方面的缺陷,使得这些微批处理策略开发速度变慢,运维成本变高。
于是,Flink出现了,这一技术框架可以避免上述弊端,并且拥有所需的诸多功能,还能按照连续事件高效地处理数据,Flink的部分特性如下图所示:
Fink
低延迟、高吞吐、结果的准确性和良好的容错性。
Flink主页在其顶部展示了该项目的理念:“Apache Flink是为分布式、高性能、随时可用以及准确的流处理应用程序打造的开源流处理框架”。
Apache Flink是一个框架和分布式处理引擎,用于对无界和有界数据流进行有状态计算。Flink被设计在所有常见的集群环境中运行,以内存执行速度和任意规模来执行计算。
1. Flink的重要特点
① 事件驱动型(Event-driven)
事件驱动型应用是一类具有状态的应用,它从一个或多个事件流提取数据,并根据到来的事件触发计算、状态更新或其他外部动作。比较典型的就是以kafka为代表的消息队列几乎都是事件驱动型应用。 事件驱动型如下图:
与之不同的就是SparkStreaming微批次如图:
② 流与批的世界观
批处理的特点是有界、持久、大量,非常适合需要访问全套记录才能完成的计算工作,一般用于离线统计。
流处理的特点是无界、实时, 无需针对整个数据集执行操作,而是对通过系统传输的每个数据项执行操作,一般用于实时统计。
在spark的世界观中,一切都是由批次组成的,离线数据是一个大批次,而实时数据是由一个一个无限的小批次组成的。
而在flink的世界观中,一切都是由流组成的,离线数据是有界限的流,实时数据是一个没有界限的流,这就是所谓的有界流和无界流。
无界数据流:无界数据流有一个开始但是没有结束,它们不会在生成时终止并提供数据,必须连续处理无界流,也就是说必须在获取后立即处理event。对于无界数据流我们无法等待所有数据都到达,因为输入是无界的,并且在任何时间点都不会完成。处理无界数据通常要求以特定顺序(例如事件发生的顺序)获取event,以便能够推断结果完整性。
有界数据流:有界数据流有明确定义的开始和结束,可以在执行任何计算之前通过获取所有数据来处理有界流,处理有界流不需要有序获取,因为可以始终对有界数据集进行排序,有界流的处理也称为批处理。
这种以流为世界观的架构,获得的最大好处就是具有极低的延迟。
③ 分层API
最底层级的抽象仅仅提供了有状态流,它将通过过程函数(Process Function)被嵌入到DataStream API中。底层过程函数(Process Function) 与 DataStream API 相集成,使其可以对某些特定的操作进行底层的抽象,它允许用户可以自由地处理来自一个或多个数据流的事件,并使用一致的容错的状态。除此之外,用户可以注册事件时间并处理时间回调,从而使程序可以处理复杂的计算。
大多数应用并不需要上述的底层抽象,而是针对核心API(Core APIs) 进行编程,比如DataStream API(有界或无界流数据)以及DataSet API(有界数据集)。这些API为数据处理提供了通用的构建模块,比如由用户定义的多种形式的转换(transformations),连接(joins),聚合(aggregations),窗口操作(windows)等等。
DataSet API 为有界数据集提供了额外的支持,例如循环与迭代。这些API处理的数据类型以类(classes)的形式由各自的编程语言所表示。
Table API 是以表为中心的声明式编程,其中表可能会动态变化(在表达流数据时)。Table API遵循(扩展的)关系模型:表有二维数据结构(schema)(类似于关系数据库中的表),同时API提供可比较的操作,例如select、project、join、group-by、aggregate等。Table API程序声明式地定义了什么逻辑操作应该执行,而不是准确地确定这些操作代码的看上去如何 。 尽管Table API可以通过多种类型的用户自定义函数(UDF)进行扩展,其仍不如核心API更具表达能力,但是使用起来却更加简洁(代码量更少)。除此之外,Table API程序在执行之前会经过内置优化器进行优化。
你可以在表与 DataStream/DataSet 之间无缝切换,以允许程序将 Table API 与 DataStream 以及 DataSet 混合使用。
Flink提供的最高层级的抽象是 SQL 。这一层抽象在语法与表达能力上与 Table API 类似,但是是以SQL查询表达式的形式表现程序。SQL抽象与Table API交互密切,同时SQL查询可以直接在Table API定义的表上执行。
④ 其他特点:
- 支持事件时间(event-time)和 处理时间(processing-time);
- 精确一次(exactly-once)的状态一致性保证;
- 低延迟,每秒处理数百万个事件,毫秒级延迟;
- 与众多常用存储系统的连接;
- 高可用,动态扩展,实现7 * 24小时全天候运行;
Flink集群搭建
Flink可以选择的部署方式有:
Local、Standalone(资源利用率低)、Yarn、Mesos、Docker、Kubernetes、AWS。
我们主要对Standalone模式和Yarn模式下的Flink集群部署进行分析。
Yarn模式安装
在官网下载1.10.0版本Flink(https://archive.apache.org/dist/flink/flink-1.10.0/)。
解压缩 flink-1.10.0-bin-scala_2.11.tgz,进入conf目录中。
1 修改安装目录下conf文件夹内的flink-conf.yaml配置文件,指定JobManager:
[kris@hadoop101 flink-1.10.0]$ vim conf/flink-conf.yaml jobmanager.rpc.address: hadoop101
2 修改安装目录下conf文件夹内的slave配置文件,指定TaskManager:
[kris@hadoop101 flink-1.10.0]$ vim conf/slaves hadoop102 hadoop103
3 将配置好的Flink目录分发给其他的两台节点:
[kris@hadoop101 module]$ xsync flink-1.10.0/
standalone模式和yarn模式这两种模式配置都一样;
①. standalone模式的启动:
[kris@hadoop101 flink-1.10.0]$ bin/start-cluster.sh Starting cluster. Starting standalonesession daemon on host hadoop101. Starting taskexecutor daemon on host hadoop102. Starting taskexecutor daemon on host hadoop103.
[kris@hadoop101 flink-1.10.0]$ xcall.sh jps ----------hadoop101------------ 3839 Jps 3759 StandaloneSessionClusterEntrypoint ----------hadoop102------------ 3573 Jps 3494 TaskManagerRunner ----------hadoop103------------ 3576 Jps 3497 TaskManagerRunner
关闭集群: [kris@hadoop101 flink-1.10.0]$ bin/stop-cluster.sh
http://hadoop101:8081 可以对flink集群和任务进行监控管理。
standalone模式的任务提交: ① 准备数据文件 [kris@hadoop101 flink-1.10.2]$ vim data/input.txt how are you fine thank you i am fine too thank you ② 把数据文件分发到taskmanage 机器中 由于读取数据是从本地磁盘读取,实际任务会被分发到taskmanage的机器中,所以要把目标文件分发。 [kris@hadoop101 flink-1.10.0]$ xsync data/input.txt ③ 执行程序 [kris@hadoop101 flink-1.10.0]$ bin/flink run -c com.xxx.fink.app.BatchWcApp Flink-1.0-SNAPSHOT-jar-with-dependencies.jar --input data/input.txt --output data/output.csv Starting execution of program (am,1) (are,1) (fine,2) (how,1) (i,1) (thank,2) (too,1) (you,3) Program execution finished Job with JobID 09ffd619992aa6e53cc36743f213629c has finished. Job Runtime: 3712 ms ④ 到目标文件夹中查看计算结果 注意:计算结果根据会保存到taskmanage的机器下,不会在jobmanage下 [kris@hadoop103 data]$ ll 总用量 8 -rw-rw-r--. 1 kris kris 51 5月 8 11:15 input.txt -rw-rw-r--. 1 kris kris 48 5月 8 18:15 output.csv
⑤ 在web控制台查看计算过程 http://hadoop101:8081/
②. Yarn模式的启动和运行:
Flink提供了两种在yarn上运行的模式,分别为Session-Cluster和Per-Job-Cluster模式。
1) Session-cluster 模式:
Session-Cluster模式需要先启动集群,然后再提交作业,接着会向yarn申请一块空间后,资源永远保持不变。如果资源满了,下一个作业就无法提交,只能等到yarn中的其中一个作业执行完成后,释放了资源,下个作业才会正常提交。所有作业共享Dispatcher和ResourceManager;共享资源;适合规模小执行时间短的作业。
在yarn中初始化一个flink集群,开辟指定的资源,以后提交任务都向这里提交。这个flink集群会常驻在yarn集群中,除非手工停止。
2) Per-Job-Cluster 模式:
一个Job会对应一个集群,每提交一个作业会根据自身的情况,都会单独向yarn申请资源,直到作业执行完成,一个作业的失败与否并不会影响下一个作业的正常提交和运行。独享Dispatcher和ResourceManager,按需接受资源申请;适合规模大长时间运行的作业。
每次提交都会创建一个新的flink集群,任务之间互相独立,互不影响,方便管理。任务执行完成之后创建的集群也会消失。
Yarn-Session模式
- 明确虚拟机中已经设置好了环境变量HADOOP_HOME。
- 启动Hadoop集群(HDFS和Yarn)。
- 在hadoop101节点提交Yarn-Session,使用安装目录下bin目录中的yarn-session.sh脚本进行提交:
[kris@hadoop101 flink-1.10.0]$ bin/yarn-session.sh -n 2 -s 2 -jm 1024 -tm 1024 -nm test -d
Yarn-session模式提交就不看配置文件了,默认以命令行上的参数为准, 其中: -n(--container):TaskManager的数量。 -s(--slots): 每个TaskManager的slot数量,默认一个slot一个core(CPU),默认每个taskmanager的slot的个数为1,有时可以多一些taskmanager,做冗余。建议设置为每个机器的CPU核数,跑在slot上的一个任务即一个线程。 比如4核CPU,-s 8,则多个slot共享一个cpu; -jm:JobManager的内存(单位MB)。 -tm:每个taskmanager的内存(单位MB)。 -nm:yarn 的appName(现在yarn的ui上的名字)。 -d:后台执行。 启动后查看Yarn的Web页面,可以看到刚才提交的会话:
http://hadoop101:48031 可查看页面
一旦session创建成功,就可以使用./bin/flink工具向集群提交任务。
最好写全路径: [kris@hadoop101 flink-1.10.0]$ bin/flink run -m yarn-cluster -c com.xxx.fink.app.BatchWcApp Flink-1.0-SNAPSHOT-jar-with-dependencies.jar --input data/input.txt --output data/output-yarn.csv INFO org.apache.flink.yarn.AbstractYarnClusterDescriptor - YARN application has been deployed successfully. Starting execution of program (am,1) (are,1) (fine,2) (how,1) (i,1) (thank,2) (too,1) (you,3) Program execution finished Job with JobID 281d37c037a4e56dbc558ac21b8043d9 has finished. Job Runtime: 3319 ms
================================
查看运行最后结果在hadoop103机器上面: /opt/moudle/flink1.10.0/data/output-yarn.csv
在yarn上运行一个官方 flink job的wordCount
[kris@hadoop101 flink-1.10.0]$ bin/flink run -m yarn-cluster examples/batch/WordCount.jar (would,2) (wrong,1) (you,1) Program execution finished Job with JobID ed51d12a4992c907b9b7e4cb2a28dc05 has finished. Job Runtime: 18291 ms Accumulator Results: - 55207241aa959f05f454d610997e5e51 (java.util.ArrayList) [170 elements]
去yarn控制台查看任务状态
在提交Session的节点查看进程:
----------hadoop101------------ 10385 Jps 7989 NodeManager 7625 NameNode 7802 DataNode 10156 FlinkYarnSessionCli 10318 YarnSessionClusterEntrypoint ----------hadoop102------------ 6948 Jps 6108 NodeManager 5853 DataNode 5951 ResourceManager ----------hadoop103------------ 6923 Jps 5964 NodeManager 5837 DataNode 6063 SecondaryNameNode
[kris@hadoop101 bin]$ yarn application -list application_1572752436054_0001 test Apache Flink kris default RUNNING UNDEFINED 100% http://hadoop101:48031 [kris@hadoop101 bin]$ yarn application -kill application_1572752436054_0001 19/11/03 15:17:26 INFO client.RMProxy: Connecting to ResourceManager at hadoop102/192.168.1.102:8032 Killing application application_1572752436054_0001
页面提交jar包:
sink端,代码里边直接设置了并行度为1;前边算子的并行度,每个算子都可以单独设置并行度,(代码中没设置,以页面提交的并行度为准);
socket端不能是并行的;
命令行提交:
启动yarn-session:
[kris@hadoop101 flink-1.7.0]$ bin/yarn-session.sh -n 2 -s 6 -jm 1024 -tm 1024 -nm test -d
[kris@hadoop101 flink-1.7.2]$ bin/flink run -c com.xxx.fink.app.StreamWcApp -p 2 /opt/module/flink-1.7.2/Flink-1.0-SNAPSHOT-jar-with-dependencies.jar --host hadoop101 --port 7777 INFO org.apache.flink.yarn.AbstractYarnClusterDescriptor - Found application JobManager host name 'hadoop101' and port '48031' from supplied application id 'application_1572752436054_0001' Starting execution of program
[kris@hadoop101 ~]$ xcall.sh jps ----------hadoop101------------ 12035 CliFrontend ##是正在运行的jar包 12357 Jps 7989 NodeManager 7625 NameNode 7802 DataNode 10156 FlinkYarnSessionCli 10318 YarnSessionClusterEntrypoint ----------hadoop102------------ 7344 Jps 6108 NodeManager 5853 DataNode 5951 ResourceManager ----------hadoop103------------ 8150 Jps 8075 YarnTaskExecutorRunner 5964 NodeManager 5837 DataNode 6063 SecondaryNameNode
查询
[kris@hadoop101 flink-1.7.0]$ bin/flink list INFO org.apache.flink.yarn.AbstractYarnClusterDescriptor - Found application JobManager host name 'hadoop101' and port '33305' from supplied application id 'application_1572674361568_0001' Waiting for response... ------------------ Running/Restarting Jobs ------------------- 02.11.2019 14:04:39 : 146b2bf2349e2fbe8596433eec572c25 : stream word count job (RUNNING) -------------------------------------------------------------- No scheduled jobs.
取消任务
[kris@hadoop101 flink-1.7.0]$ bin/flink cancel 146b2bf2349e2fbe8596433eec572c25
Per Job Cluster模式
1) 启动hadoop集群
2) 不启动yarn-session,直接执行job
./flink run –m yarn-cluster -c com.xxx.wc.StreamWordCount FlinkTutorial-1.0-SNAPSHOT-jar-with-dependencies.jar --host hadoop101 –port 7777