hive_实现ip的十进制和点分十进制(xxx.xxx.xxx.xxx)之间的相互转换
hive实现ip的十进制和点分十进制(xxx.xxx.xxx.xxx)之间相互转换
Hadoop——MapReduce(3)
MapReduce:自己处理业务相关代码 + 自身的默认代码文章目录1.MapReduce优缺点2.MapReduce进程3.序列化4 InputFormat数据输入4.1 切片与MapTask并行度决定机制4.2 Job提交流程源码详解4.3 FileInputFormat 切片机制4.4 Fil
HadoopHA 搭建
1.准备三台机器 centos7安装步骤 略( 可以看我的 虚拟机安装 centos7 文章)2.配置免秘钥访问略(可以看我的免秘钥配置文章)3.JKD 安装1.8略4.Hadoop官网下载3.1.2网址 http://hadoop.apache.org/https://archive.apache
Hadoop HA《hadoop-Yarn》
1.Hadoop集群HA搭建可参考我的文章《Hadoop分布式搭建(一)》2.修改环境变量cd /opt/hadoop-3.1.2/etc/hadoopvi hadoop-env.shexport JAVA_HOME=/usr/lib/jvm/jdk1.8.0_111export HDFS_NAME
【Hadoop】——JavaAPI操作
Haoop Java API操作
HBase集群搭建(一)
1.准备三台机器 centos7安装步骤 略( 可以看我的 虚拟机安装 centos7 文章)2.配置免秘钥访问略(可以看我的免秘钥配置文章)3.JKD 安装1.8略4.下载 HBasehttps://hbase.apache.org/downloads.html5.安装tar -zxvf hbas
什么是大数据?
本文从七个部分阐述大数据分析,包括:背景、定义、意义、挑战及未来趋势以及市场等部分。
hive metastore配置kerberos认证
hive从3.0.0开始提供hive metastore单独服务作为像presto、flink、spark等组件的元数据中心。但是默认情况下hive metastore在启动之后是不需要进行认证就可以访问的。所以本文基于大数据组件中流行的kerberos认证方式,对hive metastore进行认
搭建Hadoop集群(超详细版)
搭建Hadoop集群
Hadoop分布式搭建
1.Hadoop官网下载3.1.2网址 http://hadoop.apache.org/https://archive.apache.org/dist/hadoop/common/hadoop-3.1.2/2.准备三台机器(本教程使用的虚拟机)centos 7 安装教程可以看我的这篇https:/
SQLDeveloper连接Hive使用说明
SQLDeveloper连接Hive使用说明
Hadoop分布式集群的安装(图解)
搭建是学习大数据的基础,大家一定要好好的搭建,可以试着多搭建几遍
Hadoop2.7.2集群搭建
一,基础环境1、主机名配置hostnamectl set-hostname node1hostnamectl set-hostname node2hostnamectl set-hostname node3vim /etc/hosts192.168.137.128 node1192.168.137.
大数据高级开发工程师——工作流调度器Azkaban(1)
文章目录工作流调度器AzkabanAzkaban介绍为什么需要工作流调度系统工作流调度实现方式Azkaban简介Azkaban架构Azkaban基本架构Azkaban架构的三种运行模式1. solo server mode(单机模式)2. two server mode3. multiple exe
从Hadoop框架讨论大数据生态
乾坤未定,你我仍需砥砺前行。一是,二知,三版,四高,与吾皆有关。
大数据高级开发工程师——大数据相关工具之一 Sqoop
文章目录数据导入导出工具Sqoop ETL工具Sqoop简介Sqoop1与Sqoop2架构对比Sqoop安装部署Sqoop的数据导入1. 列出所有数据库2. 准备表数据3. 导入数据库表数据到HDFS4. 导入到HDFS指定目录5. 导入到hdfs指定目录并指定字段之间的分隔符6. 导入关系表到HI
五十八、Ubuntu搭建hadoopHA高可用(从零开始)
环境准备编号 主机名 类型 用户 IP 1 master 主节点 root 192.168.231.247 2 slave1 从节点 root 192.168.231.248 3 slave2 从节点 root 192.168.2
更新后-Hive免费版本2.1 报错问题收集
目前还不够全面,慢慢记录2021-12-24 Error while compiling statement: FAILED: SemanticException [Error 10002]: line **Invalid column reference ''错误显示是无效的行,一度怀疑自己查询和
大数据高级开发工程师——数据采集框架Flume(1)
文章目录数据采集框架FlumeFlume基本介绍概述运行机制Flume采集系统结构图1. 简单结构2. 复杂结构Flume实战案例采集网络端口数据1. Flume的安装部署2. 开发配置文件3. 启动4. 使用 telnet 测试采集目录到HDFS1. 需求分析2. 开发配置文件3. 启动&
五十七、centos创建hadoop用户(修改hadoop用户密码,目录赋予hadoop用户权限等......)
1、创建一个名为hadoops的组groupadd hadoops查看所有组,新增组默认排在最后cat /etc/group2、创建一个名为hadoop的用户,并归到hadoops的组下useradd -g hadoops hadoop查看所有用户,新增用户默认排在最后cat /etc/passwd