大数据面试核心101问【大厂超级喜欢这些题】

1. HDFS的架构 72. HDFS的读写流程 73. 小文件过多有什么危害,你知道的解决办法有哪些 84. Secondary NameNode 了解吗,它的工作机制是怎样的 85. 简述MapReduce整个流程 96. join原理 97. yarn 的任务提交流程是怎样的 108. 简述H

shell是什么?shell与linux的区别是什么?

shell是什么?与linux区别

hbase启动后没有hregionserver

三台服务器操作相同,都是在zookeeper安装路径下的bin目录下面运行启动的代码。进入hbase安装路径下的bin目录下面 ,执行群起hbase代码。这里发现只有hmaster和部分的hregionserver。进入到zookeeper安装路径下的bin目录下面运行代码。我用的是群起脚本(只需要

大数据技术之Hadoop

大数据技术之Hadoop

Java基于Hadoop及微服务架构的前后端分离购物系统(源码)

基于Hadoop及微服务架构的前后端分离购物系统。前台购物页面使用Vue+ElementUi,后台管理页面使用html和Ajax。后端使用Spring Boot+Spring Cloud+Nacos+OpenFeign+Spring Cloud GateWay+MyBatis进行开发,使用Shiro

【Hive】建表时的存储格式

hive建表时的存储格式

处理hive中hiveserver2启动后,beeline连接出现的“拒绝连接” # 谭子

处理hadoop中hive无法连接hiveserver2问题。Error: Could not open client transport with JDBC Uri: jdbc:hive2://hadoop1:10000User: andy is not allowed to impersonat

实验二、熟悉常用的HDFS操作(HDFS JavaAPI之读取/上传/删除文件)

一、实验目的理解HDFS在Hadoop体系结构中的角色熟练使用HDFS操作常用的shell命令熟悉HDFS操作常用的Java API二、实验平台操作系统:CentOS 8Hadoop版本:3.3.1jdk版本:1.8Java IDE:Eclipse三、实验内容1. 使用Hadoop命令操作分布式文件

【大数据】第二章:搭建Hadoop集群(送尚硅谷大数据笔记)

【大数据】第二章:搭建Hadoop集群(送尚硅谷大数据笔记)

Hadoop单机版安装(保姆级教学)

Hadoop单机版(保姆级教学),希望能给你带来帮助。

记录搭建hadoop踩坑日记 JAVA_HOME Not Found 解决办法

今天在学习hadoop 搭建 真实集群下的hdfs 在启动时,报错了,无法启动。JAVA_HOME NOT FOUND

大数据之 Hadoop 教程

Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算。

关于Hive中的存储格式及压缩格式详解

最近面试,遇到了关于Hive的数据存储格式的问题,回答不尽人意,抽时间总结多看看关于Hive存储格式和压缩格式的内容。TEXTFILE 是 Hive 默认文件存储方式,存储方式为行存储,数据不做压缩,磁盘开销大,数据解析开销大,数据不支持分片,数据加载导入方式可以通过LOAD和INSERT两种方式加

Spark与hdfs delegation token过期的排查思路总结

hadoop delegation token的问题相对比较混乱和复杂,简单说下这东西的出现背景,最早的hadoop的因没有的完善的安全机制(安全机制主要包括:认证 + 鉴权,hadoop这里主要是身份认证机制没有),所以导致操作风险比较大,你可以理解只要获取了一台装有hadoop client的机

Hive 删除一个字段

如何删除hive表中的一个字段?

Hadoop官网翻译 (HDFS命令)

hadoop官网翻译hdfs-3

IDEA连接hadoop hdfs

 进入一下界面, 搜索  重启IDEA 首先保证浏览器可以访问到 按照下述步骤创建一个HDFS连接 点击出现报错,点击哪个报错的链接 https://cwiki.apache.org/confluence/display/HADOOP2/WindowsProblems 点击之后出现如下界面,点击 下

habase安装配置

1、上传2、hbase文件配置1)在27行增加java的安装路径(jdk路径)(27行)2)把文件46和47行的permSize注释掉(46和47行)3)在120行设置HBASE_PID_DIR的路径(120行)4)​​​​​​​在128行设置 HBASE_MANAGES_ZK的值(128行)5)配

hadoop、hbase、zookeeper集成kerberos认证

完整的kerberos认证过程!

Hadoop生产调优之HDFS-核心参数

NameNode 内存生产环境配置,NameNode心跳并发配置,开启回收站配置

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈