Cenots上Flink Standalone 集群部署

打印 上一主题 下一主题

主题 999|帖子 999|积分 2997

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
环境阐明
Centos7.5
flink-1.20.0-bin-scala_2.12.tgz
jdk1.8
hadoop-2.7.3
Flink运行依赖Java环境,如果没有Java环境,可自行下载Java后,再进行下面操纵
一,Flink下载~解压~运行
去Flink官网进行下载,Downloads | Apache Flink,点击链接跳转后,可以选择自己必要的版本进行下载,这里我选择的是flink-1.20.0-bin-scala_2.12.tgz。
下载完成后,上传至假造机 /opt 目次下,然后进行解压,解压至/usr/local/下
  
  1. cd /opt
  2. tar -xvf flink-1.20.0-bin-scala_2.12.tgz -C /usr/local
复制代码
就会在/usr/local下天生新文件夹“flink-1.20.0”

然后执行以下下令就可以启动单机版本的 Flink:
  
  1. cd /usr/local/flink-1.20.0
  2. bin/start-cluster.sh
复制代码

启动后,查看jps
,如下图,包括一个taskmanager和一个ClusterEntryPoint历程
  
  1. jps
复制代码

二,Web UI界面
Flink 提供了 WEB 界面用于直观的管理 Flink 集群,访问端口为 8081
通过访问,主机IP+端标语即可访问,例如我的为:192.168.74.110:8081

如果访问不通,解决方法如下
此时必要修改Flink配置文件conf/config.yaml文件中的rest.bind-address属性为“0.0.0.0”.
  
  1. vi config.yaml
复制代码

修改完成之后,重启Flink服务就可以访问了

三,测试实例
启动后可以运行安装包中自带的词频统计案例,具体步调如下:
1)开启端口
  1. nc -lk 9999
复制代码
输入下令后,下令行会卡住,这是正常征象,这是因为 nc下令正在等待吸收来自网络的数据。
2)运行实例
新打开一个下令行窗口,然后跳转至Flink目次下
  1. cd /usr/local/flink-1.20.0
复制代码
然后执行以下下令,运行实例
  1. bin/flink run examples/streaming/SocketWindowWordCount.jar --port 9999
复制代码
就会出现

3)输入测试数据
此时我们跳转回,我们刚才开启端口的那个下令窗口
输入测试数据,中心有空格
  1. a a b b c c d d a b
复制代码
4)查看控制台输出
打开WEB UI页面,首先看到我们有一个实例即作业在运行中


然后依次点击下面的操纵,就可以看到实例运行结果


5)制止作业(实例)
①方式一,通过Web UI 页面的Cancel Job按钮

从左到右依次点击

然后进入页面后,点击右上角,竣事作业

②方式二利用 flink cancel 下令取消作业:
刚才在启动后,得到了JobId,如图

此时我们就可以打开新的下令行窗口输入以下下令
  1. cd /usr/local/flink-1.20.0
  2. bin/flink cancel "你的jobid"
复制代码
不知道JobId怎么办,只需同样打开新的下令行窗口
输入以下下令
  1. cd /usr/local/flink-1.20.0
  2. ./bin/flink list
复制代码
 然后你就会看到某个作业的JobId了

然后再执行bin/flink下令+Jobid即可
6)制止Flink
  1. bin/stop-cluster.sh
复制代码
四,Standalone Cluster
Standalone Cluster 模式是 Flink 自带的一种集群模式,具体配置步调如下:
1)提前准备
四台服务器,主机名分别为hadoop01 hadoop02 hadoop03 hadoop04,其中hadoop01为主节点
别的三台为slave节点
 
2)搭建步调
修改config.yaml 中 jobmanager 节点的通讯地址为 hadoop01,bind-host为: 0.0.0.0
  1. cd /usr/local/flink-1.20.0/conf
  2. vi config.yaml
复制代码


修改 workers配置文件,将 hadoop02 和 hadoop03和hadoop04 配置为 slave 节点:
  1. vi workers
复制代码
删除localhost
加入
  1. hadoop02
  2. hadoop03
  3. hadoop04
复制代码

将配置好的 Flink 安装包分发到其他两台服务器上:执行以下下令
  1. scp -r /usr/local/flink-1.20.0 hadoop02:/usr/local
  2. scp -r /usr/local/flink-1.20.0 hadoop03:/usr/local
  3. scp -r /usr/local/flink-1.20.0 hadoop04:/usr/local
复制代码
完成后,输入以下下令在hadoop01上启动集群(前面那个作业记得制止,要否则这里会有警告)
  1. cd /usr/local/flink-1.20.0
  2. bin/start-cluster.sh
复制代码

启动完毕后,你应该可以在主节点输入jps
可以看到

各子节点可以看到

Web UI界面可以看到


五,Flink Standalone HA搭建
Standalone Cluster HA(High Availability)是Flink中的一种高可用性配置,用于确保Flink集群在发生故障时可以或许继续运行。
1)提前准备 
Hadoop 集群和 ZooKeeper 集群的部署搭建
2)搭建步调
①修改 config.yaml 文件

  1. cd /usr/local/flink-1.20.0/conf
  2. vi config.yaml
复制代码
 增加如下配置:注意自己hadoop端标语和主机名
  1. # 配置使用zookeeper来开启高可用模式
  2. high-availability: zookeeper
  3. # 配置zookeeper的地址,采用zookeeper集群时,可以使用逗号来分隔多个节点地址
  4. high-availability.zookeeper.quorum: hadoop01:2181,hadoop02:2181,hadoop03:2181,hadoop04:2181
  5. # 在zookeeper上存储flink集群元信息的路径
  6. high-availability.zookeeper.path.root: /flink
  7. # 集群id
  8. high-availability.cluster-id: /standalone_cluster_one
  9. # 持久化存储JobManager元数据的地址,zookeeper上存储的只是指向该元数据的指针信息
  10. high-availability.storageDir: hdfs://hadoop01:9000/flink/recovery
复制代码
修改conf/masters文件,修改内容如下:
  1. hadoop01:8081
  2. hadoop02:8081
  3. hadoop03:8081
复制代码
这代表将 hadoop01 和 hadoop02 和hadoop03都配置为 master 节点:
修改conf/zoo.cfg文件
在里面加入以下代码
  1. server.1=hadoop01:2888:3888
  2. server.2=hadoop02:2888:3888
  3. server.3=hadoop03:2888:3888
复制代码
这个文件里最下面原来有server.1=localhost:2888:3888,删撤除这句话
②再将这些配置复制到其他节点
  1. scp -r /usr/local/flink-1.20.0 hadoop02:/usr/local
  2. scp -r /usr/local/flink-1.20.0 hadoop03:/usr/local
  3. scp -r /usr/local/flink-1.20.0 hadoop04:/usr/local
复制代码
③启动ZooKeeper集群
在主节点Flink安装目次下运行
  1. ./bin/start-zookeeper-quorum.sh
复制代码
 
 
④启动hadoop集群
  1. start-dfs.sh
  2. start-yarn.sh
复制代码
 3)启动Flink Standalone HA集群
主节点执行
  1. bin/start-cluster.sh
复制代码
 
 
图片中可以看到,设置了三个主节点
然后Jps查看各个节点的情况
hadoop01
 
 
hadoop02
 

hadoop03
 
 
hadoop04


到这里,则表示 Standalone Cluster HA 模式搭建成功。

一个很常见的问题,在启动集群的时间,会启动失败,大概率是Flink中缺少Hadoop的jar包
这里去官网下载Downloads | Apache Flink

挑一个下载,然后放在Flink安装目次的lib目次下
所有节点都要放!!!

4)制止集群
主节点执行以下下令
  1. bin/stop-cluster.sh
复制代码
到这里,你就完成了Cenots上Flink Standalone 集群部署,恭喜你!!!
渴望可以帮助到你!!!


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

惊落一身雪

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表