0


(续)Hadoop相应组件的搭建

前文请看Hadoop的搭建

Zookeeper组件

ZooKeeper 的安装包 zookeeper-3.4.8.tar.gz 已放置在 Linux 系统 /opt/software目录下。

解压安装包到指定目标,在 Master 节点执行如下命令。

tar -zxvf /opt/software/zookeeper-3.4.8.tar.gz -C /usr/local/src

mv /usr/local/src/zookeeper-3.4.8 /usr/local/src/zookeeper

配置ZooKeeper

Master 节点的配置

在 ZooKeeper 的安装目录下创建 data 和 logs 文件夹。

cd /usr/local/src/zookeeper

mkdir data && mkdir logs

在每个节点写入该节点的标识编号,每个节点编号不同,master 节点写 入 1,slave1 节点写入 2,slave2 节点写入 3。

echo 1 > /usr/local/src/zookeeper/data/myid

修改配置文件 zoo.cfg

cp /usr/local/src/zookeeper/conf/zoo_sample.cfg /usr/local/src/zookeeper/conf/zoo.cfg

vi /usr/local/src/zookeeper/conf/zoo.cfg

修改dataDir 参数:dataDir=/usr/local/src/zookeeper/data

在 zoo.cfg 文件末尾追加以下参数配置,表示三个 ZooKeeper 节点的访 问端口号。

server.1=master:2888:3888

server.2=slave1:2888:3888

server.3=slave2:2888:3888

修改 ZooKeeper 安装目录的归属用户为 hadoop 用户。

chown -R hadoop:hadoop /usr/local/src/zookeeper

Slave 节点的配置

从 Master 节点复制 ZooKeeper 安装目录到两个 Slave 节点。

cd

scp -r /usr/local/src/zookeeper slave1:/usr/local/src/

scp -r /usr/local/src/zookeeper slave2:/usr/local/src/

在 slave1 节点上修改 zookeeper 目录的归属用户为 hadoop 用户。

chown -R hadoop:hadoop /usr/local/src/zookeeper

在 slave1 节点上配置该节点的 myid 为 2

echo 2 > /usr/local/src/zookeeper/data/myid

在 slave2 节点上修改 zookeeper 目录的归属用户为 hadoop 用户。

chown -R hadoop:hadoop /usr/local/src/zookeeper

在 slave2 节点上配置该节点的 myid 为 3。

echo 3 > /usr/local/src/zookeeper/data/myid

系统环境变量配置

在 master、slave1、slave2 三个节点增加环境变量配置。

vim /etc/profile

在文件末尾添加如下代码:

set zookeeper environment

ZooKeeper 安装目录

export ZOOKEEPER_HOME=/usr/local/src/zookeeper

ZooKeeper 可执行程序目录

export PATH=$PATH:$ZOOKEEPER_HOME/bin

启动 ZooKeeper

注意:启动 ZooKeeper 需要使用 Hadoop 用户进行操作。

分别在 masterslave1slave2 三个节点使用 zkServer.sh start 命令启 动ZooKeeper。

su - hadoop

source /etc/profile

启动ZooKeeper

zkServer.sh start

三个节点都启动完成后,再统一查看 ZooKeeper 运行状态。

分别在 masterslave1slave2 三个节点使用 zkServer.sh status 命令查看 ZooKeeper 状态。可以看到三个节点的状态分别为 follower、leader、 follower。三个节点会包括一个 leader 和两个 follower,每个节点地位均等, leader 是根据 ZooKeeper 内部算法进行选举,每个节点的具体状态不固定。

zkServer.sh status

Hbase数据库组件

Hbase小知识

  • HBase是一个分布式的面向列的开源数据库。
  • HBase是Google BigTable的开源实现。
  • HBase不同于一般的关系数据库, 适合非结构化数据存储。
  • HBase是一种分布式、可扩展、支持海量数据存储的 NoSQL数据库。
  • HBase在HDFS之上提供了高并发的随机写和支持实时查询。
  • 基于「列式存储」,存储数据的“结构”可以地非常灵活。

Hbase 安装与配置

解压缩 HBase 安装包

tar -zxf /opt/software/hbase-1.2.1-bin.tar.gz -C /usr/local/src/

重命名 HBase 安装文件夹

cd /usr/local/src/

mv hbase-1.2.1/ hbase

在所有节点添加环境变量(masterslave1slave2****)

vim /etc/profile

在文件结尾处添加如下代码:

export HBASE_HOME=/usr/local/src/hbase

export PATH=$HBASE_HOME/bin:$PATH

在所有节点使环境变量生效(masterslave1slave2****)

source /etc/profile

在 master 节点进入配置文件目录

cd /usr/local/src/hbase/conf/

在 master 节点配置 hbase-env.sh 文件

vim hbase-env.sh

在文件结尾处添加如下代码:

export JAVA_HOME=/usr/local/src/jdk1.8.0_152

export HBASE_MANAGES_ZK=false

export HBASE_CLASSPATH=/usr/local/src/hadoop/etc/hadoop/

在 master 节点配置 hbase-site.xml

vi hbase-site.xml

<configuration> <property> <name>hbase.rootdir</name> <value>hdfs://master:9000/hbase</value> # 使用 9000 端口 <description>The directory shared by region servers.</description> </property> <property> <name>hbase.master.info.port</name> <value>60010</value> # 使用 master 节点 60010 端口 </property> <property> <name>hbase.zookeeper.property.clientPort</name> <value>2181</value> # 使用 master 节点 2181 端口 <description>Property from ZooKeeper's config zoo.cfg. The port at which the clients will connect. </description> </property> <property> <name>zookeeper.session.timeout</name> <value>120000</value> # ZooKeeper 超时时间 </property> <property> <name>hbase.zookeeper.quorum</name> <value>master,slave1,slave2</value> # ZooKeeper 管理节点 </property> <property> <name>hbase.tmp.dir</name> <value>/usr/local/src/hbase/tmp</value> # HBase 临时文件路径 </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> # 使用分布式 HBase </property> </configuration> ![](https://img-blog.csdnimg.cn/direct/c4a0fdf04dc843deb4faa2697ceed400.png)
在 master 节点修改 regionservers 文件

vim regionservers

添加如下代码:

slave1

slave2

在 master 节点创建 hbase.tmp.dir 目录

mkdir /usr/local/src/hbase/tmp

将 master 上的 hbase 安装文件同步到 slave1 slave2

scp -r /usr/local/src/hbase/ root@slave1:/usr/local/src/

scp -r /usr/local/src/hbase/ root@slave2:/usr/local/src/

在所有节点修改 hbase 目录权限(masterslave1slave2****)

chown -R hadoop:hadoop /usr/local/src/hbase/

在所有节点切换到 hadoop 用户(masterslave1slave2****)

su - hadoop

source /etc/profile

启动 HBase

start-all.sh

jps

jps

jps

在所有节点启动 ZooKeeper

masterslave1slave2****)

zkServer.sh start

jps

在 master 节点启动 HBase

start-hbase.sh

jps

在浏览器输入192.168.128.131:60010 出现如下图所示界面。

tar -zxf /opt/software/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /usr/local/src/

cd /usr/local/src/

mv sqoop-1.4.7.bin__hadoop-2.6.0/ sqoop

cd /usr/local/src/sqoop/conf/

cp sqoop-env-template.sh sqoop-env.sh

cp sqoop-env-template.sh sqoop-env.sh

vim /etc/profile

cp /opt/software/mysql-connector-java-5.1.47.jar /usr/local/src/sqoop/lib/

标签: hadoop ubuntu linux

本文转载自: https://blog.csdn.net/m0_74749094/article/details/138281421
版权归原作者 魚y 所有, 如有侵权,请联系我们删除。

“(续)Hadoop相应组件的搭建”的评论:

还没有评论