大数据|Hadoop系统

📚Hadoop介绍

【hadoop】解决浏览器不能访问Hadoop的50070、8088等端口

问题:在虚拟机启动hadoop集群后,在window浏览器无法访问http://master:50070、http://master:8088等集群监控界面。问题排查:首先在windows里ping一下是否能通:若不能ping通,试一下ping IP地址,这里master的IP地址为192.168.

Centos7搭建hadoop3.3.4分布式集群

最近在学习`hadoop`,本文记录一下,怎样在Centos7系统上搭建一个`3`个节点的`hadoop`集群。

HDFS Java API 操作

java API 操作hdfs

大数据系列——什么是hdfs?hdfs用来干什么的?

大数据系列——什么是hdfs?hdfs用来干什么的?

使用IDEA工具,通过Java API 操作 HDFS (文件/目录的操作,含源码,详细操作步骤)

Hadoop文件系统API文档:https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/filesystem/index.htmlHadoop整合了众多文件系统,HDFS只是这个文件系统的一个实例,下表整合了一些

强制退出hdfs安全模式

强制退出安全模式

Shell脚本之——Hadoop3单机版安装

Shell脚本之——Hadoop3单机版安装

Hadoop3 - HDFS DataNode 动态扩容和缩容

已有HDFS集群容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的DataNode节点。节点已经上线,但没有数据块的存储,使得集群整体来看负载不均衡。DataNode 缩容,不像扩容那样启动一个节点即可, 缩容还需要把当前节点数据移出去才可以,:旧的服务器需要进行退役更换,暂停服务,需

实验二-HDFS编程

大数据技术原理与应用-实验二-HDFS编程这里包括了实验步骤以及实验过程中遇到的问题及解决方法~实验要求:编写shell与Java代码检验分布式系统HDFS上是否存在一个input.txt,并对代码进行详细注释,通过流程图阐述数据查找过程。

hadoop集群安装(四):安装hadoop集群

hadoop集群安装配置,设置hdfs、yarn、MapReduce文件,启动并验证hadoop服务

HBASE默认端口

HBASE默认端口

Hadoop原理与技术——hdfs命令行基本操作

Hadoop原理与技术——hdfs命令行基本操作

java使用idea操作HDFS

java和hdfs

HDFS的基础练习--新建目录

4.把mydata01上传到HDFS的/data01,把mydata02上传到HDFS的/data02,以此类推,把5份文件都上传到大数据平台的HDFS上。3.在/home/hadoop/software/自己名字命名目录下创建5分有数据的文件(mydata01-mydata05)文件内容自定义。h

元数据性能大比拼:HDFS vs S3 vs JuiceFS

一般我们在看一个系统的性能时,主要关注它的操作时延(单个操作所消耗的时间)和吞吐量(满负载下的处理能力),我们把这两个指标再汇总一下:S3 非常慢,尤其是 Rename 操作,因为它是通过 Copy + Delete 实现的。本文测试的还只是单个空文件的 Rename,而大数据场景常用的是对整个目录

练习HDFS的访问,创建目录,删除目录--超详细

2、进入到sbin目录下输入:start-dfs.sh,重启一下。4、创建的多个目录,在虚拟机上查看:hdfs dfs -ls /之后再输入hdfs dfs -ls /,没有出现拒绝连接即可。hdfs dfs -mkdir /(文件名字)

hadoop的HDFS的shell命令大全(一篇文章就够了)

HDFS的shell命令1、安全模式安全模式:集群启动时,DN所有的DN都必须向MM汇报磁盘使用状态和block存储信息。在此之前出于对hdfs的保护,会禁止访问hdfs,此状态为安全模式1.查看安全模式状态#查看安全模式状态hdfs dfsasmin --safemode get#-状态-on|o

Hadoop入门及简单使用

hadoop安装及第一个计算pi值程序跑通.翻译过来就是hadoop贡献了一个可靠,大规模,分布式的计算**开源**软件(通常一个公司开发出产品在第一句话都要吹一下的,还都是一堆听起来很高大尚的专业术语:smile:),hadoop同时是一个允许使用简单的编程模型来处理分布式大数据集的框架,后面的你

hadoop:未找到命令----解决办法

昨天安装hadoop后,今天想进行一些简单的练习,但是出现问题。到这里没有启动JobTracker和TaskTracker。通过shell命令export修改Linux环境变量。分析原因:环境变量中,没有写入hadoop的路径。提示错误 hadoop:未找到命令。但是会给出警告,不过目前不影响。ha

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈