0


Mac 安装 Hadoop 详细教程(安装包 and Homebrew)

一、JDK 安装

JDK 版本高于 JDK 8,可能会导致 Hadoop ResourceManager 打不开,从而导致无法访问 localhost:8088。因此最好的方法,就是准备好 JDK 8 的环境,然后导入到 Hadoop 当中。

参考这篇文章,觉得写的很好:MAC安装与卸载jdk_mac 卸载jdk-CSDN博客

二、配置 SSH

配置 SSH,防止后续连接失败。

  1. 输入:
  1. ssh localhost

成功则显示:

  1. 如果失败,则在本地设置中,搜索“共享”,打开“远程登录”。

  1. 打开 terminal:

(1) 如果之前没有生成过密钥,则生成:

  1. ssh-keygen -t rsa

(2) 有密钥后,更改授权,免密登陆:

  1. cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  2. chmod 600 ~/.ssh/authorized_keys

三、Hadoop下载

方法一:安装包下载
  1. 登陆网址:hadoop安装连接

  2. 选择自己要的版本下载,我下的是最新版:

  1. 点进去后,选择 tar.gz:

  1. 点击,下载到本地,然后解压,放在自己需要的目录中,我放在了
  1. /usr/local/Cellar/hadoop/hadoop-3.4.0
方法二:Homebrew 安装
  1. 本地先安装 Homebrew,参考这篇文章:Mac安装Homebrew

  2. 安装 Hadoop:

  1. brew install hadoop

PS: 这种安装方式可能会少 lib/native 文件夹,具体原因未知。

四、配置 Hadoop

1、 配置 Hadoop 全局变量:

注意:这里是在主terminal配置。

  1. 打开 terminal,输入:
  1. vim ~/.bash_profile
  1. 在文件中输入:
  1. # Hadoop
  2. # 你本机的Hadoop存放地址
  3. export HADOOP_HOME=/usr/local/Cellar/hadoop/hadoop-3.4.0
  4. export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
  5. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
  6. export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
  7. export HADOOP_MAPRED_HOME=$HADOOP_HOME
  8. export HADOOP_INSTALL=$HADOOP_HOME
  9. export HADOOP_COMMON_HOME=$HADOOP_HOME
  10. export HADOOP_HDFS_HOME=$HADOOP_HOME
  11. export YARN_HOME=$HADOOP_HOME
  1. 保存后,使之生效,这样便可在全局使用 hadoop 启动命令:
  1. source ~/.bash_profile
2、配置 Hadoop 中的文件

打开 hadoop 文件夹,再打开 /etc/hadoop 文件夹,修改以下文件:

  1. 打开 hadoop-env.sh,添加 java_home 的位置:

使用这句话来查询 java_home 的位置:

  1. /usr/libexec/java_home -V
  1. 我的 hadoop 文件夹位置是:
  1. /usr/local/Cellar/hadoop/hadoop-3.4.0

使用 terminal,在 hadoop 文件夹中新建几个文件夹:

  1. mkdir /usr/local/Cellar/hadoop/hadoop-3.4.0/tmp
  2. mkdir /usr/local/Cellar/hadoop/hadoop-3.4.0/tmp/dfs
  3. mkdir /usr/local/Cellar/hadoop/hadoop-3.4.0/tmp/dfs/name
  4. mkdir /usr/local/Cellar/hadoop/hadoop-3.4.0/tmp/dfs/data
  1. 打开 core-site.xml,添加:
  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://localhost:8020</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <!--hadoop安装地址+/tmp,刚刚新建的文件夹-->
  9. <value>/usr/local/Cellar/hadoop/hadoop-3.4.0/tmp</value>
  10. </property>
  11. </configuration>
  1. 打开 hdfs-site.xml,添加:
  1. <configuration>
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>1</value>
  5. </property>
  6. <property>
  7. <name>dfs.permissions</name>
  8. <value>false</value>
  9. </property>
  10. <property>
  11. <name>dfs.namenode.name.dir</name>
  12. <!--hadoop安装地址+/tmp/dfs/name,刚刚新建的文件夹-->
  13. <value>/usr/local/Cellar/hadoop/hadoop-3.4.0/tmp/dfs/name</value>
  14. </property>
  15. <property>
  16. <name>dfs.datanode.data.dir</name>
  17. <!--hadoop安装地址+/tmp/dfs/data,刚刚新建的文件夹-->
  18. <value>/usr/local/Cellar/hadoop/hadoop-3.4.0/tmp/dfs/data</value>
  19. </property>
  20. </configuration>
  1. 查看 hadoop classpath, terminal 输入:
  1. hadoop classpath

打开 mapred-site.xml ,添加:

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>mapred.job.tracker</name>
  8. <value>localhost:9010</value>
  9. </property>
  10. <property>
  11. <name>mapreduce.application.classpath</name>
  12. <!--上面查到的 Hadoop classpath-->
  13. <value>/usr/local/Cellar/hadoop/hadoop-3.4.0/etc/hadoop:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/common/lib/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/common/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/hdfs:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/hdfs/lib/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/hdfs/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/mapreduce/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/yarn:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/yarn/lib/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/yarn/*</value>
  14. </property>
  15. <property>
  16. <name>yarn.app.mapreduce.am.env</name>
  17. <!--hadoop安装地址-->
  18. <value>/usr/local/Cellar/hadoop/hadoop-3.4.0</value>
  19. </property>
  20. <property>
  21. <name>mapreduce.map.env</name>
  22. <!--hadoop安装地址-->
  23. <value>/usr/local/Cellar/hadoop/hadoop-3.4.0</value>
  24. </property>
  25. <property>
  26. <name>mapreduce.reduce.env</name>
  27. <!--hadoop安装地址-->
  28. <value>/usr/local/Cellar/hadoop/hadoop-3.4.0</value>
  29. </property>
  30. </configuration>
  1. 打开 yarn-site.xml,添加:
  1. <configuration>
  2. <!-- Site specific YARN configuration properties -->
  3. <property>
  4. <name>yarn.nodemanager.aux-services</name>
  5. <value>mapreduce_shuffle</value>
  6. </property>
  7. <property>
  8. <name>yarn.resourcemanager.address</name>
  9. <value>localhost:9000</value>
  10. </property>
  11. <property>
  12. <name>yarn.scheduler.capacity.maximum-am-resource-percent</name>
  13. <value>100</value>
  14. </property>
  15. <property>
  16. <name>yarn.resourcemanager.hostname</name>
  17. <value>127.0.0.1</value>
  18. </property>
  19. </configuration>

五、启动 Hadoop

1、初始化
  1. terminal 执行:
  1. hdfs namenode -format
2、启动 Hadoop

1、terminal 执行:

  1. start-all.sh

执行结果:

  1. 查看启动状态:
  1. jps

  1. 网页查看是否启动成功:

查看 HDFS 启动情况:http://localhost:9870

查看 YARN 启动情况:http://localhost:8088

  1. 关闭 hadoop,输入:
  1. stop-all.sh

六、测试 Hadoop

使用 wordcount 函数测试。
  1. 在 hdfs 上创建一个文件夹 input,用于存放输入数据源:
  1. hdfs dfs -mkdir -p input
  1. 本地创建一个数据源文件 word.txt,将其上传到 hdfs:
  1. hadoop fs -put wordinput/word.txt input/word.txt
  1. 执行 wordcount 函数,进行计算:
  1. hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.4.0.jar wordcount input/ woutput

显示成功:

  1. 查看结果:

登陆 HDFS:http://localhost:9870

找到创建的文件夹,选择输出文件夹:

选择 “part-r-00000”:

可以下载,也可以直接查看结果:

七、配置历史服务器

通过历史服务器,可以很好的看到当前执行的job情况,还能回顾历史job的情况,非常方便。
  1. 在 /etc/hadoop 目录下,打开 mapred.xml,添加:
  1. <!--Job History server-->
  2. <property>
  3. <name>mapreduce.jobhistory.webapp.address</name>
  4. <value>localhost:19888</value>
  5. </property>

如图所示:

  1. 重新启动 yarn:
  1. start-yarn.sh
  1. 启动历史服务器,terminal 输入:
  1. mapred --daemon start historyserver
  1. jps 命令查看是否启动:

  1. 登陆网页查看:

登陆配置的网页:http://localhost:19888/jobhistory

参考文章

Hadoop 安装教程 (Mac m1/m2版)_m1 安装hadoop-CSDN博客

Mac 安装Hadoop教程(HomeBrew安装)_mac安装hadoop-CSDN博客

标签: macos hadoop ssh

本文转载自: https://blog.csdn.net/weixin_39149333/article/details/142981456
版权归原作者 超甜超可爱 所有, 如有侵权,请联系我们删除。

“Mac 安装 Hadoop 详细教程(安装包 and Homebrew)”的评论:

还没有评论