Superset 安装配置

官网地址Apache Superset 是一个现代的数据探索和可视化平台。它功能强大且十分易用,可对接各种数据源,包括很多现代的大数据分析引擎,拥有丰富的图表展示形式,并且支持自定义仪表盘。Superset快速,轻巧,直观,并带有各种选项,使各种技能的用户都可以轻松浏览和可视化其数据,从简单的折线图

分布式学习-1 Hadoop Spark安装

折腾了一个多月的时间,成功实现了一些应用。学习过程中还是踩了不少坑的,所以在这里对整个构建过程进行整理,方便大家参考学习。

如何利用IDEA通过创建Maven项目来实现hadoop相关项目

前言已经安装好IDEA,并且配置好JDK和maven一、创建一个Maven项点击玩Finish之后,等待加载完项目(第一次加载需要等一段时间)如图示,maven项目加载完毕,并将下图所示内容删除二、导入hadoop相关依赖,即修改pom.xml文件在</project>前的<bui

尚硅谷大数据技术Hadoop教程-笔记04【Hadoop-MapReduce】

尚硅谷大数据技术Hadoop教程-笔记04【Hadoop-MapReduce】

hive启动失败,报 java.net.ConnectException:拒绝连接

hive服务器需要依赖hadoop服务器,所以要先启动hadoop集群。

大数据:HDFS的Shell常用命令操作

HDFS允许用户数据组织成文件和文件夹的方式,它提供一个叫DFSShell的接口,使用户可以和HDFS中的数据交互。命令集的语法跟其他用户熟悉的shells(bash,csh)相似。Shell在计算机科学中俗称“壳”,是提供给使用者使用界面的进行与系统交互的软件,通过接收用户输入的命令执行相应的操作

centOS 7下Hadoop伪分布式搭建

centOS下Hadoop伪分布式搭建

spark安装教程

spark安装

Spark 下载安装配置详解文档 (spark-2.4.8-bin-hadoop2.7.tgz)

解压tar -zxvf spark-2.4.8-bin-hadoop2.7.tgz -C /opt/moudel/官网地址:https://archive.apache.org/dist/spark/重命名mv spark-2.4.8-bin-hadoop2.7 spark-2.4.8。进入/usr

hive学习(仅供参考)

hive安装

HBase 集群部署与启动

HBase 集群部署与启动

Hadoop三大框架之MapReduce工作流程

Hadoop三大框架之MapReduce工作流程

一文了解 HDFS 及其组成框架

介绍了HDFS是什么、HDFS的优缺点,NameNode节点、DataNode节点、SecondaryNameNode节点的 定义 及 功能 介绍。

基于Ubuntu的Hadoop伪分布式配置

麦肯锡全球研究所给出的定义是:一种规模大到在获取、存储、管理、分析方面大大超出了传统数据库软件工具能力范围的数据集合,具有海量的数据规模、快速的数据流转、多样的数据类型和价值密度低四大特征。大数据的5V特点(IBM提出):Volume(大量)、Velocity(高速)、Variety(多样)、Val

Hive 数据同步ClickHouse

在开发过程中,需要从HDFS中导入数据到clickhouse中。把所有数据分析相关的日志数据存储至ClickHouse这个优秀的数据仓库之中,当前日数据量达到了300亿。需求:按条件筛选Hive表中的数据同步到ClickHouse中方法一:按照ClickHouse 官方文档提供的方法,在ClickH

Hive 之中位数

中位数(Median)又称中值,统计学中的专有名词,是按顺序排列的一组数据中居于中间位置的数,代表一个样本、种群或概率分布中的一个数值,其可将数值集合划分为相等的上下两部分。对于有限的数集,可以通过把所有观察值高低排序后找出正中间的一个作为中位数。如果观察值有偶数个,通常取最中间的两个数值的平均数作

成为一名厉害的程序员,需要哪些必备知识

成为一名厉害的程序员必备知识,看看你都掌握了吗?

(超详细)MapReduce工作原理及基础编程

MapReduce编程基础JunLeon——go big or go home前言:Google于2003年在SOSP上发表了《The Google File System》,于2004年在OSDI上发表了《MapReduce: Simplified Data Processing on Large

6道经典大数据面试题(ChatGPT回答版)

1、HDFS 读写流程是什么?HDFS(Hadoop Distributed File System)的读写流程如下:写流程:客户端向 NameNode 发送写请求,请求在 HDFS 上创建一个新的文件。NameNode 为该文件分配一些数据块(默认情况下为 128 MB)以及在哪些 DataNod

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈