HDFS高可用单NameNode从standby恢复为active(二)

将高可用hdfs ha降为单namenode可行。如果两个namenode有一个不能用了,紧急情况下就可以通过修改配置的方式将hdfs降低为单namenode的集群继续进行工作。

一文快速学会hadoop完全分布式集群搭建,很详细

hadoop的启动模式有三种,一个是本地模式,一个是伪分布式模式,还有一个是集群模式。为了学习hadoop,这里需要搭建一个完全分布式的集群。希望你先把准备工作给看一下,因为我们的配置都是前后一致的。本文因为想让大家学习一下集群分发脚本,所以在模板虚拟机里面少放了很多东西,以后会写一个快速搭建集群的

Hadoop压缩方式介绍

hadoop压缩方式介绍,gzip\bzip2\snappy\lzo

大数据hive篇--UDF函数

udf函数

Hadoop——HDFS文件系统的Java API操作(上传、下载、查看、删除、创建文件)详细教学

如果还没有配置好Hadoop的可以点击链接查看如何配置各大技术基础教学、实战开发教学(正在持续更新中······)首先,启动Hadoop集群服务然后在浏览器访问Hadoop,点击Browse the file system 查看HDFS文件系统的目录可以看到目前HDFS文件系统的目录是空的,没有任何

Hadoop命令大全

hadoop常用命令

Windows环境下hadoop安装和配置伪分布式集群详细步骤

Windows环境下hadoop安装和配置伪分布式集群详细步骤

基于 Docker 搭建 Hadoop 平台

基于 Docker 搭建完全分布式 Hadoop 平台小白的折腾记录

基于hadoop的气象数据可视化分析

也提供了气象数据的查询方式,如查询当天气象情况,当月情况,当年情况等。1)利用一些气象数据网站提供的API在线获取信息,将这些信息保存到Hbase.每天定时更新,方便快捷,便于城市气象数据的实时获取与维护。(2)分析全国各城市每个月的气象情况,如:当月平均气象,最高气象,最高风速情况等。提供选择指定

大数据毕业设计--全国新冠疫情数据可视化

大数据可视化毕业设计,整合Python+hadoop+springboot+echarts,源码已发布在gitee上。

hdfs命令,hadoop基本常用命令

hdfs命令,hadoop基本常用命令

Hive--时间函数大全

hive时间函数1. current_date():获取当前格式化日期2. current_timestamp():获取当前格式化时间3. unix_timestamp():获取当前unix时间戳4. from_unixtime():把unix时间戳转化为格式化时间5. to_date(): 当前格

Hadoop 重新格式化NameNode

目录一、重新格式化 NameNode1、删除hadoop 三台节点配置路径下的残留文件(1)core-site.xml删除/usr/local/src/hadoop/tmp目录(2)hdfs-site.xml删除/usr/local/src/hadoop/dfs/name目录(3)hdfs-site

大数据技术原理与应用(第三版)林子雨教材配套实验答案---实验二 熟悉常用的hdfs操作

大数据技术原理与应用(第三版)林子雨教材配套实验答案---实验二熟悉常用的hdfs操作。

CentOS7安装Hadoop集群完整步骤

1. 安装3台centos7服务器1.1.配置名字hadoop01\hadoop02\hadoop03hostnamectl set-hostname hadoop01hostnamectl set-hostname hadoop02hostnamectl set-hostname hadoop03

Hadoop(一) 原理简介、基本构建

了解Hadoop的基本架构和工作原理,在linux上实现三种运行模式

大数据学习-bug01-hadoop进程错误

Hadoop进程冲突,配置文件出错。

【Hive】Hive练习题50道

数据展示student表score表teacher表course表在hive中建表导入数据首先要先在hdfs上为每个数据建一个文件名相同的文件夹,以上的4张表都是txt格式的,放入hdfs相对应的文件夹后,使用以下语句建表(因为数据量不大,就直接建内部表)create table if not ex

Parquet文件详解

Apache Parquet是Apache Hadoop生态系统的一种免费的开源面向列的数据存储格式。它类似于Hadoop中可用的其他列存储文件格式,如RCFile格式和ORC格式。本文将简单介绍一下Parquet文件的结构。数据首先写入文件,元数据最后写入单遍(single pass)写入。首先让

kettle连接hive

要替换kettle文件的位置:D:\programfile\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\hdp30。注意是要放在hdp30目录下的lib文件夹,而不是像把Oracle/MySQL驱动一样

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈