0


CDH CDH 13Cloudera Manager Console FreeIPA 用户规划(markdown新版)

文章目录

FreeIPA 用户规划

创建相关账号:

ipa user-add hadoopadmin --first=Hadoop --last=Admin
ipa group-add-member admins --users=hadoopadmin
创建密码:ipa passwd hadoopadmin admintianlingqun
登录测试:kinit hadoopadmin
ipa group-add ambari-managed-principals
ipa permission-add “Set User Password Expiration” --permissions=write --type=user --attrs=krbpasswordexpiration
ipa permission-add “Set Service Password Expiration” --permissions=write --type=service --attrs=krbpasswordexpiration
ipa privilege-add “Krbpass admin”
ipa privilege-add-permission “Krbpass admin” --permissions=“Set User Password Expiration”
ipa privilege-add-permission “Krbpass admin” --permissions=“Set Service Password Expiration”
ipa role-add-privilege “Security Architect” --privileges=“Krbpass admin”
ipa role-add-member “Security Architect” --groups=admins

一. 团队用户相关

1 创建相关 团队用户

先 kinit admin

kinit admin

1.1 etl 用户:用于数据清洗相关工作

ipa_user=etl
ipa user-add

  1. i
  2. p
  3. a
  4. u
  5. s
  6. e
  7. r
  8. f
  9. i
  10. r
  11. s
  12. t
  13. =
  14. {ipa_user} --first=
  15. ipauser−−first={ipa_user} --last=
  16. i
  17. p
  18. a
  19. u
  20. s
  21. e
  22. r
  23. s
  24. h
  25. e
  26. l
  27. l
  28. =
  29. /
  30. b
  31. i
  32. n
  33. /
  34. b
  35. a
  36. s
  37. h
  38. h
  39. o
  40. m
  41. e
  42. d
  43. i
  44. r
  45. =
  46. /
  47. h
  48. o
  49. m
  50. e
  51. /
  52. {ipa_user} --shell=/bin/bash --homedir=/home/
  53. ipauser−−shell=/bin/bash−−homedir=/home/{ipa_user}

1.2 bigdata 用户:“大数据” 团队用户,用于 数据清洗后的相关工作,比如 sqoop 数据同步,Spark or flink 实时任务 等

ipa_user=bigdata
ipa user-add

  1. i
  2. p
  3. a
  4. u
  5. s
  6. e
  7. r
  8. f
  9. i
  10. r
  11. s
  12. t
  13. =
  14. {ipa_user} --first=
  15. ipauser−−first={ipa_user} --last=
  16. i
  17. p
  18. a
  19. u
  20. s
  21. e
  22. r
  23. s
  24. h
  25. e
  26. l
  27. l
  28. =
  29. /
  30. b
  31. i
  32. n
  33. /
  34. b
  35. a
  36. s
  37. h
  38. h
  39. o
  40. m
  41. e
  42. d
  43. i
  44. r
  45. =
  46. /
  47. h
  48. o
  49. m
  50. e
  51. /
  52. {ipa_user} --shell=/bin/bash --homedir=/home/
  53. ipauser−−shell=/bin/bash−−homedir=/home/{ipa_user}

ipa_user=tianlingqun
ipa user-add

  1. i
  2. p
  3. a
  4. u
  5. s
  6. e
  7. r
  8. f
  9. i
  10. r
  11. s
  12. t
  13. =
  14. {ipa_user} --first=
  15. ipauser−−first={ipa_user} --last=
  16. i
  17. p
  18. a
  19. u
  20. s
  21. e
  22. r
  23. s
  24. h
  25. e
  26. l
  27. l
  28. =
  29. /
  30. b
  31. i
  32. n
  33. /
  34. b
  35. a
  36. s
  37. h
  38. h
  39. o
  40. m
  41. e
  42. d
  43. i
  44. r
  45. =
  46. /
  47. h
  48. o
  49. m
  50. e
  51. /
  52. {ipa_user} --shell=/bin/bash --homedir=/home/
  53. ipauser−−shell=/bin/bash−−homedir=/home/{ipa_user}

1.3 danalysis 用户:“数据分析” 团队用户,用于数据分析相关工作,比如:Hive 分层数据汇总等

ipa_user=danalysis
ipa user-add

  1. i
  2. p
  3. a
  4. u
  5. s
  6. e
  7. r
  8. f
  9. i
  10. r
  11. s
  12. t
  13. =
  14. {ipa_user} --first=
  15. ipauser−−first={ipa_user} --last=
  16. i
  17. p
  18. a
  19. u
  20. s
  21. e
  22. r
  23. s
  24. h
  25. e
  26. l
  27. l
  28. =
  29. /
  30. b
  31. i
  32. n
  33. /
  34. b
  35. a
  36. s
  37. h
  38. h
  39. o
  40. m
  41. e
  42. d
  43. i
  44. r
  45. =
  46. /
  47. h
  48. o
  49. m
  50. e
  51. /
  52. {ipa_user} --shell=/bin/bash --homedir=/home/
  53. ipauser−−shell=/bin/bash−−homedir=/home/{ipa_user}

1.4 azkaban 用户:用于 Azkaban 调度系统

ipa_user=azkaban
ipa user-add

  1. i
  2. p
  3. a
  4. u
  5. s
  6. e
  7. r
  8. f
  9. i
  10. r
  11. s
  12. t
  13. =
  14. {ipa_user} --first=
  15. ipauser−−first={ipa_user} --last=
  16. i
  17. p
  18. a
  19. u
  20. s
  21. e
  22. r
  23. s
  24. h
  25. e
  26. l
  27. l
  28. =
  29. /
  30. b
  31. i
  32. n
  33. /
  34. b
  35. a
  36. s
  37. h
  38. h
  39. o
  40. m
  41. e
  42. d
  43. i
  44. r
  45. =
  46. /
  47. h
  48. o
  49. m
  50. e
  51. /
  52. {ipa_user} --shell=/bin/bash --homedir=/home/
  53. ipauser−−shell=/bin/bash−−homedir=/home/{ipa_user}

1.5 hadoop 用户:hdfs 超级用户

ipa_user=hadoop
ipa user-add

  1. i
  2. p
  3. a
  4. u
  5. s
  6. e
  7. r
  8. f
  9. i
  10. r
  11. s
  12. t
  13. =
  14. {ipa_user} --first=
  15. ipauser−−first={ipa_user} --last=
  16. i
  17. p
  18. a
  19. u
  20. s
  21. e
  22. r
  23. s
  24. h
  25. e
  26. l
  27. l
  28. =
  29. /
  30. b
  31. i
  32. n
  33. /
  34. b
  35. a
  36. s
  37. h
  38. h
  39. o
  40. m
  41. e
  42. d
  43. i
  44. r
  45. =
  46. /
  47. h
  48. o
  49. m
  50. e
  51. /
  52. {ipa_user} --shell=/bin/bash --homedir=/home/
  53. ipauser−−shell=/bin/bash−−homedir=/home/{ipa_user}

1.6 livy

ipa_user=livy
ipa user-add

  1. i
  2. p
  3. a
  4. u
  5. s
  6. e
  7. r
  8. f
  9. i
  10. r
  11. s
  12. t
  13. =
  14. {ipa_user} --first=
  15. ipauser−−first={ipa_user} --last=
  16. i
  17. p
  18. a
  19. u
  20. s
  21. e
  22. r
  23. s
  24. h
  25. e
  26. l
  27. l
  28. =
  29. /
  30. b
  31. i
  32. n
  33. /
  34. b
  35. a
  36. s
  37. h
  38. h
  39. o
  40. m
  41. e
  42. d
  43. i
  44. r
  45. =
  46. /
  47. h
  48. o
  49. m
  50. e
  51. /
  52. {ipa_user} --shell=/bin/bash --homedir=/home/
  53. ipauser−−shell=/bin/bash−−homedir=/home/{ipa_user}

2. 创建相关团队用户的 home 目录 ( 在 onedts-dev-cdh-client-v01 服务器 操作)

2.1 etl

user_name=etl
user_home=/DATA/disk1/home/${user_name};
mkdir -p ${user_home}/security/keytabs/;
\cp /root/.bashrc ${user_home}/;
\cp /root/.bash_profile ${user_home}/;
chown -R

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name} ${user_home}/;

cd /home/;
ln -s

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. .
  10. /
  11. {user_home} ./
  12. userhome./{user_name};

2.2 bigdata

user_name=bigdata
user_home=/DATA/disk1/home/${user_name};
mkdir -p ${user_home}/security/keytabs/;
\cp /root/.bashrc ${user_home}/;
\cp /root/.bash_profile ${user_home}/;
chown -R

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name} ${user_home}/;

cd /home/;
ln -s

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. .
  10. /
  11. {user_home} ./
  12. userhome./{user_name};

2.3 danalysis

user_name=danalysis
user_home=/DATA/disk1/home/${user_name};
mkdir -p ${user_home}/security/keytabs/;
\cp /root/.bashrc ${user_home}/;
\cp /root/.bash_profile ${user_home}/;
chown -R

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name} ${user_home}/;

cd /home/;
ln -s

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. .
  10. /
  11. {user_home} ./
  12. userhome./{user_name};

2.4 azkaban

user_name=azkaban
user_home=/DATA/disk1/home/${user_name};
mkdir -p ${user_home}/security/keytabs/;
\cp /root/.bashrc ${user_home}/;
\cp /root/.bash_profile ${user_home}/;
chown -R

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name} ${user_home}/;

cd /home/;
ln -s

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. .
  10. /
  11. {user_home} ./
  12. userhome./{user_name};

2.5 hadoop

user_name=hadoop
user_home=/DATA/disk1/home/${user_name};
mkdir -p ${user_home}/security/keytabs/;
\cp /root/.bashrc ${user_home}/;
\cp /root/.bash_profile ${user_home}/;
chown -R

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name} ${user_home}/;

cd /home/;
ln -s

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. .
  10. /
  11. {user_home} ./
  12. userhome./{user_name};

3 创建相关团队用户的 kerberos 票据 ( 在 onedts-dev-cdh-client-v01 服务器 操作)

先 kinit admin

kinit admin

注意:一个用户的 有效票据文件永远是 “最后一次执行 ipa-getkeytab命令” 生成的文件,

所以,用户的票据文件要在多台服务器上使用的话,只能在某一台服务器生成 ${user_name}.keytab 后,再 scp 该文件到其他服务器

3.1 etl

user_name=etl
ipa_server=onedts-dev-cdh-ipa-v01.smartparkos.com
user_home=/DATA/disk1/home/${user_name};
ipa-getkeytab -s ${ipa_server}
-p ${user_name}
-k

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab

chown

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name}
  12. u
  13. s
  14. e
  15. r
  16. h
  17. o
  18. m
  19. e
  20. /
  21. s
  22. e
  23. c
  24. u
  25. r
  26. i
  27. t
  28. y
  29. /
  30. k
  31. e
  32. y
  33. t
  34. a
  35. b
  36. s
  37. /
  38. {user_home}/security/keytabs/
  39. userhome/security/keytabs/{user_name}.keytab;

chmod 400

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

ls -l

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

3.2 bigdata

user_name=bigdata
ipa_server=onedts-dev-cdh-ipa-v01.smartparkos.com
user_home=/DATA/disk1/home/${user_name};
ipa-getkeytab -s ${ipa_server}
-p ${user_name}
-k

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab

chown

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name}
  12. u
  13. s
  14. e
  15. r
  16. h
  17. o
  18. m
  19. e
  20. /
  21. s
  22. e
  23. c
  24. u
  25. r
  26. i
  27. t
  28. y
  29. /
  30. k
  31. e
  32. y
  33. t
  34. a
  35. b
  36. s
  37. /
  38. {user_home}/security/keytabs/
  39. userhome/security/keytabs/{user_name}.keytab;

chmod 400

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

ls -l

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

3.3 danalysis

user_name=danalysis
ipa_server=onedts-dev-cdh-ipa-v01.smartparkos.com
user_home=/DATA/disk1/home/${user_name};
ipa-getkeytab -s ${ipa_server}
-p ${user_name}
-k

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab

chown

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name}
  12. u
  13. s
  14. e
  15. r
  16. h
  17. o
  18. m
  19. e
  20. /
  21. s
  22. e
  23. c
  24. u
  25. r
  26. i
  27. t
  28. y
  29. /
  30. k
  31. e
  32. y
  33. t
  34. a
  35. b
  36. s
  37. /
  38. {user_home}/security/keytabs/
  39. userhome/security/keytabs/{user_name}.keytab;

chmod 400

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

ls -l

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

3.4 azkaban ( 该用户不需要经常登陆执行脚本等,故该步骤可以忽略)

user_name=azkaban
ipa_server=onedts-dev-cdh-ipa-v01.smartparkos.com
user_home=/DATA/disk1/home/${user_name};
ipa-getkeytab -s ${ipa_server}
-p ${user_name}
-k

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab

chown

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name}
  12. u
  13. s
  14. e
  15. r
  16. h
  17. o
  18. m
  19. e
  20. /
  21. s
  22. e
  23. c
  24. u
  25. r
  26. i
  27. t
  28. y
  29. /
  30. k
  31. e
  32. y
  33. t
  34. a
  35. b
  36. s
  37. /
  38. {user_home}/security/keytabs/
  39. userhome/security/keytabs/{user_name}.keytab;

chmod 400

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

ls -l

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

3.5 superset ( 用于 superset )

user_name=superset
ipa_server=onedts-dev-cdh-ipa-v01.smartparkos.com
user_home=/DATA/disk1/home/${user_name};
ipa-getkeytab -s ${ipa_server}
-p ${user_name}
-k

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab

chown

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name}
  12. u
  13. s
  14. e
  15. r
  16. h
  17. o
  18. m
  19. e
  20. /
  21. s
  22. e
  23. c
  24. u
  25. r
  26. i
  27. t
  28. y
  29. /
  30. k
  31. e
  32. y
  33. t
  34. a
  35. b
  36. s
  37. /
  38. {user_home}/security/keytabs/
  39. userhome/security/keytabs/{user_name}.keytab;

chmod 400

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

ls -l

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

3.5 hadoop

user_name=hadoop
ipa_server=onedts-dev-cdh-ipa-v01.smartparkos.com
user_home=/DATA/disk1/home/${user_name};
ipa-getkeytab -s ${ipa_server}
-p ${user_name}
-k

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab

chown

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name}
  12. u
  13. s
  14. e
  15. r
  16. h
  17. o
  18. m
  19. e
  20. /
  21. s
  22. e
  23. c
  24. u
  25. r
  26. i
  27. t
  28. y
  29. /
  30. k
  31. e
  32. y
  33. t
  34. a
  35. b
  36. s
  37. /
  38. {user_home}/security/keytabs/
  39. userhome/security/keytabs/{user_name}.keytab;

chmod 400

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

ls -l

  1. u
  2. s
  3. e
  4. r
  5. h
  6. o
  7. m
  8. e
  9. /
  10. s
  11. e
  12. c
  13. u
  14. r
  15. i
  16. t
  17. y
  18. /
  19. k
  20. e
  21. y
  22. t
  23. a
  24. b
  25. s
  26. /
  27. {user_home}/security/keytabs/
  28. userhome/security/keytabs/{user_name}.keytab;

注意:配置好 hadoop 用户后,在 hdfs 组件配置 dfs.permissions.superusergroup 参数,类似如下:

dfs.permissions.superusergroup=hadoop

配置好后,进 hadooop 用户,给其他 “团队用户” 创建 hdfs HOME 目录,具体操作类似如下:

su - hadoop;

user_name=etl;
hdfs dfs -mkdir /user/${user_name};
hdfs dfs -chown

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name} /user/
  12. u
  13. s
  14. e
  15. r
  16. n
  17. a
  18. m
  19. e
  20. /
  21. ;
  22. h
  23. d
  24. f
  25. s
  26. d
  27. f
  28. s
  29. l
  30. s
  31. /
  32. u
  33. s
  34. e
  35. r
  36. /
  37. g
  38. r
  39. e
  40. p
  41. "
  42. {user_name}/; hdfs dfs -ls /user/ |grep "
  43. username/;hdfsdfsls/user/∣grep"{user_name}"

user_name=bigdata;
hdfs dfs -mkdir /user/${user_name};
hdfs dfs -chown

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name} /user/
  12. u
  13. s
  14. e
  15. r
  16. n
  17. a
  18. m
  19. e
  20. /
  21. ;
  22. h
  23. d
  24. f
  25. s
  26. d
  27. f
  28. s
  29. l
  30. s
  31. /
  32. u
  33. s
  34. e
  35. r
  36. /
  37. g
  38. r
  39. e
  40. p
  41. "
  42. {user_name}/; hdfs dfs -ls /user/ |grep "
  43. username/;hdfsdfsls/user/∣grep"{user_name}"

user_name=danalysis;
hdfs dfs -mkdir /user/${user_name};
hdfs dfs -chown

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name} /user/
  12. u
  13. s
  14. e
  15. r
  16. n
  17. a
  18. m
  19. e
  20. /
  21. ;
  22. h
  23. d
  24. f
  25. s
  26. d
  27. f
  28. s
  29. l
  30. s
  31. /
  32. u
  33. s
  34. e
  35. r
  36. /
  37. g
  38. r
  39. e
  40. p
  41. "
  42. {user_name}/; hdfs dfs -ls /user/ |grep "
  43. username/;hdfsdfsls/user/∣grep"{user_name}"

user_name=azkaban;
hdfs dfs -mkdir /user/${user_name};
hdfs dfs -chown

  1. u
  2. s
  3. e
  4. r
  5. n
  6. a
  7. m
  8. e
  9. :
  10. {user_name}:
  11. username:{user_name} /user/
  12. u
  13. s
  14. e
  15. r
  16. n
  17. a
  18. m
  19. e
  20. /
  21. ;
  22. h
  23. d
  24. f
  25. s
  26. d
  27. f
  28. s
  29. l
  30. s
  31. /
  32. u
  33. s
  34. e
  35. r
  36. /
  37. g
  38. r
  39. e
  40. p
  41. "
  42. {user_name}/; hdfs dfs -ls /user/ |grep "
  43. username/;hdfsdfsls/user/∣grep"{user_name}"

user_name=hadoop;
hdfs dfs -mkdir /user/${user_name};

4 创建相关 crontab,以定期刷新 用户的 kerberos 票据

4.1 etl

user_name=etl
su - ${user_name}

crontab -e # 添加如下内容

Refersh Kerberos 票据

0 0 * * * kinit -kt

  1. H
  2. O
  3. M
  4. E
  5. /
  6. s
  7. e
  8. c
  9. u
  10. r
  11. i
  12. t
  13. y
  14. /
  15. k
  16. e
  17. y
  18. t
  19. a
  20. b
  21. s
  22. /
  23. {HOME}/security/keytabs/
  24. HOME/security/keytabs/{USER}.keytab ${USER}

bigdata, danalysis, hadoop 等其他用户类似,不再赘述

二. 个人用户相关

1. yanghaoying

ipa_user=yanghaoying
user_first=haoying
user_last=yang
ipa user-add

  1. i
  2. p
  3. a
  4. u
  5. s
  6. e
  7. r
  8. f
  9. i
  10. r
  11. s
  12. t
  13. =
  14. {ipa_user} --first=
  15. ipauser−−first={user_first} --last=
  16. u
  17. s
  18. e
  19. r
  20. l
  21. a
  22. s
  23. t
  24. s
  25. h
  26. e
  27. l
  28. l
  29. =
  30. /
  31. b
  32. i
  33. n
  34. /
  35. b
  36. a
  37. s
  38. h
  39. h
  40. o
  41. m
  42. e
  43. d
  44. i
  45. r
  46. =
  47. /
  48. h
  49. o
  50. m
  51. e
  52. /
  53. {user_last} --shell=/bin/bash --homedir=/home/
  54. userlast−−shell=/bin/bash−−homedir=/home/{ipa_user};

2. zhuyinghang

ipa_user=zhuyinghang
user_first=yinghang
user_last=zhu
ipa user-add

  1. i
  2. p
  3. a
  4. u
  5. s
  6. e
  7. r
  8. f
  9. i
  10. r
  11. s
  12. t
  13. =
  14. {ipa_user} --first=
  15. ipauser−−first={user_first} --last=
  16. u
  17. s
  18. e
  19. r
  20. l
  21. a
  22. s
  23. t
  24. s
  25. h
  26. e
  27. l
  28. l
  29. =
  30. /
  31. b
  32. i
  33. n
  34. /
  35. b
  36. a
  37. s
  38. h
  39. h
  40. o
  41. m
  42. e
  43. d
  44. i
  45. r
  46. =
  47. /
  48. h
  49. o
  50. m
  51. e
  52. /
  53. {user_last} --shell=/bin/bash --homedir=/home/
  54. userlast−−shell=/bin/bash−−homedir=/home/{ipa_user};

3. xueming

ipa_user=xueming;
user_first=ming
user_last=xue
ipa user-add

  1. i
  2. p
  3. a
  4. u
  5. s
  6. e
  7. r
  8. f
  9. i
  10. r
  11. s
  12. t
  13. =
  14. {ipa_user} --first=
  15. ipauser−−first={user_first} --last=
  16. u
  17. s
  18. e
  19. r
  20. l
  21. a
  22. s
  23. t
  24. s
  25. h
  26. e
  27. l
  28. l
  29. =
  30. /
  31. b
  32. i
  33. n
  34. /
  35. b
  36. a
  37. s
  38. h
  39. h
  40. o
  41. m
  42. e
  43. d
  44. i
  45. r
  46. =
  47. /
  48. h
  49. o
  50. m
  51. e
  52. /
  53. {user_last} --shell=/bin/bash --homedir=/home/
  54. userlast−−shell=/bin/bash−−homedir=/home/{ipa_user};

4. tianlingqun

ipa_user=tianlingqun;
user_first=youmou
user_last=luo
ipa user-add

  1. i
  2. p
  3. a
  4. u
  5. s
  6. e
  7. r
  8. f
  9. i
  10. r
  11. s
  12. t
  13. =
  14. {ipa_user} --first=
  15. ipauser−−first={user_first} --last=
  16. u
  17. s
  18. e
  19. r
  20. l
  21. a
  22. s
  23. t
  24. s
  25. h
  26. e
  27. l
  28. l
  29. =
  30. /
  31. b
  32. i
  33. n
  34. /
  35. b
  36. a
  37. s
  38. h
  39. h
  40. o
  41. m
  42. e
  43. d
  44. i
  45. r
  46. =
  47. /
  48. h
  49. o
  50. m
  51. e
  52. /
  53. {user_last} --shell=/bin/bash --homedir=/home/
  54. userlast−−shell=/bin/bash−−homedir=/home/{ipa_user};

三. 用户组 相关

1 创建相关 用户组

1.1 g_etl: 用于数据清洗相关工作

group_name=g_etl
ipa group-add

  1. g
  2. r
  3. o
  4. u
  5. p
  6. n
  7. a
  8. m
  9. e
  10. d
  11. e
  12. s
  13. c
  14. g
  15. r
  16. o
  17. u
  18. p
  19. O
  20. f
  21. {group_name} --desc groupOf
  22. groupname−−descgroupOf{group_name}

ipa group-add-member ${group_name}
–users=etl
–users=tianlingqun

1.2 g_bigdata: “大数据” 团队,用于 数据清洗后的相关工作,比如 sqoop 数据同步,Spark or flink 实时任务 等

group_name=g_bigdata
ipa group-add

  1. g
  2. r
  3. o
  4. u
  5. p
  6. n
  7. a
  8. m
  9. e
  10. d
  11. e
  12. s
  13. c
  14. g
  15. r
  16. o
  17. u
  18. p
  19. O
  20. f
  21. {group_name} --desc groupOf
  22. groupname−−descgroupOf{group_name}

ipa group-add-member ${group_name}
–users=bigdata
–users=tianlingqun
–users=zhuyinghang

1.3 g_danalysis: “数据分析” 团队,用于数据分析相关工作,比如:Hive 分层数据汇总等

group_name=g_danalysis
ipa group-add

  1. g
  2. r
  3. o
  4. u
  5. p
  6. n
  7. a
  8. m
  9. e
  10. d
  11. e
  12. s
  13. c
  14. g
  15. r
  16. o
  17. u
  18. p
  19. O
  20. f
  21. {group_name} --desc groupOf
  22. groupname−−descgroupOf{group_name}

ipa group-add-member ${group_name}
–users=danalysis
–users=yanghaoying
–users=zhuyinghang
–users=xueming

1.4 g_hue: 用于 hue 查询相关,所有需要利用 Hue 工具查询数据的用户,都需要添加到该组

group_name=g_hue
ipa group-add

  1. g
  2. r
  3. o
  4. u
  5. p
  6. n
  7. a
  8. m
  9. e
  10. d
  11. e
  12. s
  13. c
  14. g
  15. r
  16. o
  17. u
  18. p
  19. O
  20. f
  21. {group_name} --desc groupOf
  22. groupname−−descgroupOf{group_name}

ipa group-add-member ${group_name}
–users=tianlingqun
–users=yanghaoying
–users=zhuyinghang
–users=xueming

标签: hadoop hive ipa

本文转载自: https://blog.csdn.net/walykyy/article/details/127135772
版权归原作者 与自己作战 所有, 如有侵权,请联系我们删除。

“CDH CDH 13Cloudera Manager Console FreeIPA 用户规划(markdown新版)”的评论:

还没有评论
关于作者
...
overfit同步小助手
文章同步
文章导航
FreeIPA 用户规划创建相关账号:一. 团队用户相关1 创建相关 团队用户先 kinit admin1.1 etl 用户:用于数据清洗相关工作1.2 bigdata 用户:“大数据” 团队用户,用于 数据清洗后的相关工作,比如 sqoop 数据同步,Spark or flink 实时任务 等1.3 danalysis 用户:“数据分析” 团队用户,用于数据分析相关工作,比如:Hive 分层数据汇总等1.4 azkaban 用户:用于 Azkaban 调度系统1.5 hadoop 用户:hdfs 超级用户1.6 livy2. 创建相关团队用户的 home 目录 ( 在 onedts-dev-cdh-client-v01 服务器 操作)2.1 etl2.2 bigdata2.3 danalysis2.4 azkaban2.5 hadoop3 创建相关团队用户的 kerberos 票据 ( 在 onedts-dev-cdh-client-v01 服务器 操作)先 kinit admin注意:一个用户的 有效票据文件永远是 “最后一次执行 ipa-getkeytab命令” 生成的文件,所以,用户的票据文件要在多台服务器上使用的话,只能在某一台服务器生成 ${user_name}.keytab 后,再 scp 该文件到其他服务器3.1 etl3.2 bigdata3.3 danalysis3.4 azkaban ( 该用户不需要经常登陆执行脚本等,故该步骤可以忽略)3.5 superset ( 用于 superset )3.5 hadoop注意:配置好 hadoop 用户后,在 hdfs 组件配置 dfs.permissions.superusergroup 参数,类似如下:配置好后,进 hadooop 用户,给其他 “团队用户” 创建 hdfs HOME 目录,具体操作类似如下:4 创建相关 crontab,以定期刷新 用户的 kerberos 票据4.1 etlRefersh Kerberos 票据bigdata, danalysis, hadoop 等其他用户类似,不再赘述二. 个人用户相关1. yanghaoying2. zhuyinghang3. xueming4. tianlingqun三. 用户组 相关1 创建相关 用户组1.1 g_etl: 用于数据清洗相关工作1.2 g_bigdata: “大数据” 团队,用于 数据清洗后的相关工作,比如 sqoop 数据同步,Spark or flink 实时任务 等1.3 g_danalysis: “数据分析” 团队,用于数据分析相关工作,比如:Hive 分层数据汇总等1.4 g_hue: 用于 hue 查询相关,所有需要利用 Hue 工具查询数据的用户,都需要添加到该组