0


深入理解Java GSS(含kerberos认证及在hadoop、flink案例场景举例)

文章目录

01 引言

在当今的信息安全环境下,保护敏感数据和网络资源的安全至关重要。

Kerberos

认证协议作为一种强大的网络身份验证解决方案,被广泛应用于许多大型分布式系统中,如:

Hadoop

。而

Java GSS

(Generic Security Services)作为

Java

提供的通用安全服务,与

Kerberos

认证密切相关。

本文将探讨

Java GSS

Kerberos

认证的基本原理,以及它们之间的关系,同时介绍如何在

Hadoop

中应用

Kerberos

认证。

02 Java GSS 简介

详细的导读可以参考:https://www.baeldung.com/java-gss

Java GSS:是

Java

提供的一套用于网络安全的通用安全服务,它为Java应用程序提供了一致的、独立于底层安全机制的编程接口。


Java GSS 的主要目标:简化网络安全编程,并提供与各种安全机制的集成能力。


其中,它支持各种常见的安全机制,如 Kerberos 、SSL/TLS和数字证书 等,下图展示了

GSS-API

与其内容的关系:

在这里插入图片描述
先简单了解kerberos认证的基本原理。

2.1 Kerberos认证基本原理

可以参考之前我写的博客:https://blog.csdn.net/qq_20042935/article/details/131281618

Kerberos

是一个基于票据的身份验证协议,它通过使用共享密钥加密的票据进行认证和授权。


Kerberos

认证协议的核心是Kerberos服务器(KDC)和客户端之间的相互信任,下面是Kerberos认证的基本流程:

  • step1:客户端发送身份请求给KDC;
  • step2:KDC验证客户端的身份,并生成一个票据授权给客户端;
  • step3:客户端使用票据请求服务票据授权;
  • step4:KDC验证客户端的请求,并生成一个服务票据授权给客户端;
  • step5:客户端将服务票据授权发送给服务端;
  • step6:服务端验证票据并向客户端发送一个加密的会话密钥;
  • step7:客户端和服务端使用会话密钥进行通信。

2.2 Kerberos在Java GSS中的应用

Java GSS

提供了一种使用

Kerberos

认证协议进行安全通信的方式,它通过

Java GSS-API

提供了对

Kerberos

协议的封装和支持,简化了开发者使用

Kerberos

进行身份验证和安全通信的过程。


**

Java GSS

提供了以下关键功能:**

  • GSSContext:用于建立和管理安全上下文,支持与Kerberos服务器进行交互;
  • GSSCredential:用于表示和管理Kerberos凭证,包括Keytab文件和Principal
  • GSSName:用于表示和管理Kerberos中的主体。

**

Java GSS

Kerberos

的密切关系在于**:

Java GSS

为开发者提供了一种简单而强大的方式来集成和使用

Kerberos

认证协议,实现安全的网络通信。 以下是相关的核心代码示例:

importjavax.security.auth.Subject;importjavax.security.auth.login.Configuration;importjavax.security.auth.login.LoginContext;importjavax.security.auth.login.LoginException;importorg.ietf.jgss.*;publicclassGSSDemo{publicstaticvoidmain(String[] args){try{// 设置Kerberos配置文件路径System.setProperty("java.security.krb5.conf","/path/to/krb5.conf");// 创建一个LoginContext来进行Kerberos认证LoginContext loginContext =newLoginContext("KerberosClient",null,null,newCustomConfiguration());// 执行Kerberos认证
            loginContext.login();// 从Subject中获取GSSCredentialSubject subject = loginContext.getSubject();GSSCredential credential = subject.getPrivateCredentials(GSSCredential.class).iterator().next();// 创建一个GSSManager实例GSSManager gssManager =GSSManager.getInstance();// 创建一个GSSName,表示Kerberos中的主体GSSName serverName = gssManager.createName("HTTP/server.example.com",GSSName.NT_HOSTBASED_SERVICE);// 创建一个GSSContext,用于建立和管理安全上下文GSSContext context = gssManager.createContext(serverName,GSSCredential.DEFAULT_LIFETIME, credential,GSSContext.DEFAULT_LIFETIME);// 建立安全上下文byte[] token =newbyte[0];while(!context.isEstablished()){
                token = context.initSecContext(token,0, token.length);}// 获取建立的安全上下文的信息String contextInfo = context.toString();// 输出安全上下文信息System.out.println("安全上下文已建立:"+ contextInfo);// 完成Kerberos认证后,执行其他操作// ...// 登出
            loginContext.logout();}catch(LoginException|GSSException e){
            e.printStackTrace();}}staticclassCustomConfigurationextendsConfiguration{@OverridepublicAppConfigurationEntry[]getAppConfigurationEntry(String name){HashMap<String,String> options =newHashMap<>();
            options.put("keyTab","/path/to/user.keytab");
            options.put("principal","[email protected]");
            options.put("useKeyTab","true");
            options.put("storeKey","true");
            options.put("doNotPrompt","true");
            options.put("isInitiator","true");
            options.put("refreshKrb5Config","true");
            options.put("renewTGT","true");
            options.put("useTicketCache","true");
            options.put("ticketCache","/tmp/krb5cc_"+getUid());returnnewAppConfigurationEntry[]{newAppConfigurationEntry("com.sun.security.auth.module.Krb5LoginModule",AppConfigurationEntry.LoginModuleControlFlag.REQUIRED, options)};}privateStringgetUid(){try{returnnewProcessBuilder("id","-u").start().getInputStream().readAllBytes().toString().trim();}catch(IOException e){
                e.printStackTrace();return"0";}}}}

03 应用

3.1 在hadoop中的应用

直接上代码,这里当然有更简单的方式,为了清楚的说明流程,所以写的比较啰嗦。下面展示了在完成

Kerberos

认证后,执行访问

Hadoop HDFS

的操作的代码片段:

importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileSystem;importorg.apache.hadoop.fs.Path;importjavax.security.auth.Subject;importjavax.security.auth.login.Configuration;importjavax.security.auth.login.LoginContext;importjavax.security.auth.login.LoginException;importorg.ietf.jgss.*;publicclassGSSDemo{publicstaticvoidmain(String[] args){try{// 设置Kerberos配置文件路径System.setProperty("java.security.krb5.conf","/path/to/krb5.conf");// 创建一个LoginContext来进行Kerberos认证LoginContext loginContext =newLoginContext("KerberosClient",null,null,newCustomConfiguration());// 执行Kerberos认证
            loginContext.login();// 从Subject中获取GSSCredentialSubject subject = loginContext.getSubject();GSSCredential credential = subject.getPrivateCredentials(GSSCredential.class).iterator().next();// 创建一个GSSManager实例GSSManager gssManager =GSSManager.getInstance();// 创建一个GSSName,表示Kerberos中的主体GSSName serverName = gssManager.createName("HTTP/server.example.com",GSSName.NT_HOSTBASED_SERVICE);// 创建一个GSSContext,用于建立和管理安全上下文GSSContext context = gssManager.createContext(serverName,GSSCredential.DEFAULT_LIFETIME, credential,GSSContext.DEFAULT_LIFETIME);// 建立安全上下文byte[] token =newbyte[0];while(!context.isEstablished()){
                token = context.initSecContext(token,0, token.length);}// 获取建立的安全上下文的信息String contextInfo = context.toString();// 输出安全上下文信息System.out.println("安全上下文已建立:"+ contextInfo);// 完成Kerberos认证后,执行其他操作// 配置Hadoop文件系统Configuration hadoopConf =newConfiguration();
            hadoopConf.addResource(newPath("/path/to/core-site.xml"));
            hadoopConf.addResource(newPath("/path/to/hdfs-site.xml"));// 登录Kerberosorg.apache.hadoop.security.UserGroupInformation.loginUserFromSubject(subject);// 创建Hadoop文件系统对象FileSystem fs =FileSystem.get(hadoopConf);// 执行HDFS操作Path path =newPath("/user/example");if(fs.exists(path)){System.out.println("目录已存在");}else{
                fs.mkdirs(path);System.out.println("目录创建成功");}// 登出
            loginContext.logout();}catch(LoginException|GSSException|IOException e){
            e.printStackTrace();}}}staticclassCustomConfigurationextendsConfiguration{@OverridepublicAppConfigurationEntry[]getAppConfigurationEntry(String name){HashMap<String,String> options =newHashMap<>();
            options.put("keyTab","/path/to/user.keytab");
            options.put("principal","[email protected]");
            options.put("useKeyTab","true");
            options.put("storeKey","true");
            options.put("doNotPrompt","true");
            options.put("isInitiator","true");
            options.put("refreshKrb5Config","true");
            options.put("renewTGT","true");
            options.put("useTicketCache","true");
            options.put("ticketCache","/tmp/krb5cc_"+getUid());returnnewAppConfigurationEntry[]{newAppConfigurationEntry("com.sun.security.auth.module.Krb5LoginModule",AppConfigurationEntry.LoginModuleControlFlag.REQUIRED, options)};}privateStringgetUid(){try{returnnewProcessBuilder("id","-u").start().getInputStream().readAllBytes().toString().trim();}catch(IOException e){
                e.printStackTrace();return"0";}}}

从上述代码中,不难发现,其实Hadoop包里面的UserGroupInfomation底层就是使用了Java GSS,其核心代码片段如下:
在这里插入图片描述

3.2 在Flink中的应用

如果部署Flink作业采用Flink On yarn的模式,Hadoop开启了kerberos认证,也是需要配置kerberos信息的,具体配置flink-conf.yaml文件就可以了,具体配置如下信息:
在这里插入图片描述
直接跳到flink核心的源码:
在这里插入图片描述

上述完整流程就是:首先用户输入flink命令 => 脚本解析 => 进入CliFronted.main方法 => 接着执行了SecurityUtils.install方法 => 最后走到HadoopModule,使用UserGroupInfomation去做登录,而UserGroupInfomation底层就是使用Java Gss去做登录认证的。

3.3 小结

从上述的代码可以看出,Java GSS在Hadoop和Flink中,其实他们彼此都有联系的:

  • Hadoop中,UserGroupInformationHadoop中处理用户身份验证、权限管理和安全上下文的关键组件之一;
  • UserGroupInformation负责处理Kerberos的凭证管理和身份验证;
  • UserGroupInformation的底层代码是由Java GSS实现的;
  • Flink On Yarn模式最终部署逻辑,底层也是使用到了UserGroupInformation这个类。

04 文末

本文主要主要围绕

Java GSS

Kerberos

UserGroupInformation

这三个核心知识点进行了讲解,希望能帮助到大家,谢谢大家的阅读,本文完!

标签: java hadoop kerberos

本文转载自: https://blog.csdn.net/qq_20042935/article/details/131599660
版权归原作者 杨林伟 所有, 如有侵权,请联系我们删除。

“深入理解Java GSS(含kerberos认证及在hadoop、flink案例场景举例)”的评论:

还没有评论