目录
一、前置要求
A、Hadoop 集群启动 Kerberos 认证
按照上述步骤为Hadoop集群开启Kerberos安全认证。
B、创建 Hive 系统用户和 Kerberos 主体
1.创建系统用户
[root@hadoop102 ~]# useradd hive -g hadoop[root@hadoop102 ~]# echo hive | passwd --stdin hive[root@hadoop103 ~]# useradd hive -g hadoop[root@hadoop103 ~]# echo hive | passwd --stdin hive[root@hadoop104 ~]# useradd hive -g hadoop[root@hadoop104 ~]# echo hive | passwd --stdin hive
2.创建 Kerberos 主体并生成 keytab 文件
创建hive用户的Kerberos主体
[root@hadoop102 ~]# kadmin -padmin/admin -wadmin -q"addprinc -randkey hive/hadoop102"
在Hive所部署的节点生成keytab文件
[root@hadoop102 ~]# kadmin -padmin/admin -wadmin -q"xst -k /etc/security/keytab/hive.service.keytab hive/hadoop102"
3.修改keytab文件所有者和访问权限
[root@hadoop102 ~]# chown -R root:hadoop /etc/security/keytab/[root@hadoop102 ~]# chmod 660 /etc/security/keytab/hive.service.keytab
二、配置认证
1.修改
$HIVE_HOME/conf/hive-site.xml
文件,增加如下属性
[root@hadoop102 ~]# vim $HIVE_HOME/conf/hive-site.xml
<!-- HiveServer2启用Kerberos认证 --><property><name>hive.server2.authentication</name><value>kerberos</value></property><!-- HiveServer2服务的Kerberos主体 --><property><name>hive.server2.authentication.kerberos.principal</name><value>hive/[email protected]</value></property><!-- HiveServer2服务的Kerberos密钥文件 --><property><name>hive.server2.authentication.kerberos.keytab</name><value>/etc/security/keytab/hive.service.keytab</value></property><!-- Metastore启动认证 --><property><name>hive.metastore.sasl.enabled</name><value>true</value></property><!-- Metastore Kerberos密钥文件 --><property><name>hive.metastore.kerberos.keytab.file</name><value>/etc/security/keytab/hive.service.keytab</value></property><!-- Metastore Kerberos主体 --><property><name>hive.metastore.kerberos.principal</name><value>hive/[email protected]</value></property>
2.修改
$HADOOP_HOME/etc/hadoop/core-site.xml
文件,具体修改如下
[root@hadoop102 ~]# vim $HADOOP_HsOME/etc/hadoop/core-site.xml
删除以下参数
<property><name>hadoop.http.staticuser.user</name><value>atguigu</value></property><property><name>hadoop.proxyuser.atguigu.hosts</name><value>*</value></property><property><name>hadoop.proxyuser.atguigu.groups</name><value>*</value></property><property><name>hadoop.proxyuser.atguigu.users</name><value>*</value></property>
增加以下参数
<property><name>hadoop.proxyuser.hive.hosts</name><value>*</value></property><property><name>hadoop.proxyuser.hive.groups</name><value>*</value></property><property><name>hadoop.proxyuser.hive.users</name><value>*</value></property>
3.分发配置core-site.xml文件
[root@hadoop102 ~]# xsync $HADOOP_HOME/etc/hadoop/core-site.xml
4.重启Hadoop集群
[root@hadoop102 ~]# stop-dfs.sh
[root@hadoop103 ~]# stop-yarn.sh
[root@hadoop102 ~]# start-dfs.sh
[root@hadoop103 ~]# start-yarn.sh
三、启动hiveserver2
注:需使用hive用户启动
[root@hadoop102 ~]# sudo -i -u hive hiveserver2
版权归原作者 在森林中麋了鹿 所有, 如有侵权,请联系我们删除。