0


搭建hadoop+spark完全分布式集群环境

一、集群规划

主机名

操作系统

地址

角色

硬件配置

master

Centos

10.1.0.248

namenode

2g 1核

slaver1

Centos

10.1.0.94

datanode

1g 1核

slaver2

Centos

10.1.0.31

datanode

1g 1核

二、更改主机名

分别修改主机名文件(重启永久生效)

sudo vi /etc/sysconfig/network

三、建立主机名和ip的映射

sudo vi /etc/hosts

拷贝到slave1和slave2中

四、关闭防火墙(master,slave1,slave2)

关闭防火墙:sudo service iptables stop

关闭防火墙自启:sudo chkconfig iptables off

五、配置ssh免密码登录

ssh-keygen -t rsa

ssh-copy-id mast

标签: 分布式 hadoop spark

本文转载自: https://blog.csdn.net/weixin_46305053/article/details/140394708
版权归原作者 又是被bug折磨的一天 所有, 如有侵权,请联系我们删除。

“搭建hadoop+spark完全分布式集群环境”的评论:

还没有评论