0


基于Hadoop搭建Flink集群详细步骤

Hadoop集群搭建请参考博文《Hadoop集群搭建详细步骤》

1.xftp上传flink压缩包至hadoop102的/opt/software/目录下

2.解压flink压缩包至/opt/module/目录下

[lxm@hadoop102 software]$ tar -zxvf ./flink-1.13.0-bin-scala_2.12.tgz -C /opt/module/

3. 配置flink-conf.yaml

4.配置masters

5.配置workers

6.配置环境变量my_env.sh

7.重启环境变量

[lxm@hadoop102 software]$ source /etc/profile

8.分发/opt/module/flink-1.13.0和/etc/profile.d/my_env.sh

[lxm@hadoop102 flink-1.13.0]$ xsync /opt/module/flink-1.13.0/

[lxm@hadoop102 ~]$ sudo ./bin/xsync /etc/profile.d/my_env.sh 

9.另外两台重启环境变量

重启环境变量之前也可以查看是否分发成功

[lxm@hadoop103 ~]$ source /etc/profile

[lxm@hadoop104 ~]$ source /etc/profile

10.开启hadoop集群和flink集群

[lxm@hadoop102 ~]$ myhadoop.sh start

[lxm@hadoop102 ~]$ start-cluster.sh

[lxm@hadoop102 ~]$ jpsall

11.浏览器输入网址查验flink集群是否开启

http://hadoop102:8081

12. 关闭flink集群命令

[lxm@hadoop102 ~]$ stop-cluster.sh 
标签: linux 运维 服务器

本文转载自: https://blog.csdn.net/Helen_1997_1997/article/details/128960038
版权归原作者 雷神乐乐 所有, 如有侵权,请联系我们删除。

“基于Hadoop搭建Flink集群详细步骤”的评论:

还没有评论