以下操作均在主节点进行
1.环境变量
添加FLINK_HOME以及path的内容:
export FLINK_HOME=/bigdata/flink-1.6.1 export PATH=$PATH:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$KAFKA_HOME/bin:${FLINK_HOME}/bin
2.修改conf/flink-conf.yaml
这几乎是最简单的配置方式了,主要注意要修改jobmanager.rpc.address为集群中jobManager的IP或hostname。检查点以及HA的参数都没有配置。
jobmanager.rpc.address: master
3.修改slaves文件
这个文件中存放的信息是taskmanager的hostname。
4.复制flink目录到集群中其他的机器
[root@master ~]# scp -r /bigdata/flink-1.6.1/ root@192.168.36.27:/bigdata/ [root@master ~]# scp -r /bigdata/flink-1.6.1/ root@192.168.36.28:/bigdata/
5.启动Flink集群
先启动zookeeper、kafka、HDfS。
启动Flink:[root@master ~]# start-cluster.sh
master:
[root@master ~]# jps 961 Kafka 22306 QuorumPeerMain 16786 ResourceManager 858 StandaloneSessionClusterEntrypoint 15996 SecondaryNameNode 1404 TaskManagerRunner 13853 NameNode 32701 DataNode 431 Jps
worker1:
[root@worker1 ~]# jps 32372 StandaloneSessionClusterEntrypoint 25285 Kafka 19046 QuorumPeerMain 16726 Jps 8137 NodeManager 5660 DataNode 351 TaskManagerRunner
worker2:
[root@worker2 ~]# jps 14592 TaskManagerRunner 7602 NodeManager 18388 QuorumPeerMain 4984 DataNode 14139 StandaloneSessionClusterEntrypoint 16060 Jps 23422 Kafka
关闭Flink:[root@master ~]# stop-cluster.sh