第1关:Hive的安装与配置

Hive的安装与配置第1关:Hive的安装与配置

Hive--时间函数大全

hive时间函数1. current_date():获取当前格式化日期2. current_timestamp():获取当前格式化时间3. unix_timestamp():获取当前unix时间戳4. from_unixtime():把unix时间戳转化为格式化时间5. to_date(): 当前格

HiveSql一天一个小技巧:如何巧用分布函数percent_rank()求去掉最大最小值的平均薪水问题

本文给出了一种利用percent_rank()求去掉最大最小值的平均薪水的方法,该方法更简洁高效,值得借鉴。通过本文需要掌握的姿势点如下:• PERCENT_RANK函数的作用、意义及使用场景是什么?• PERCENT_RANK函数的结果是如何计算?• PERCENT_RANK与cume_disk

[1142]hive中如何新增字段

文章目录新增字段1、方法1cascade知识2、方法2 (适用于外部表)3、方法3(下下策)修改字段删除列新增字段1、方法1alter table 表名 add columns (列名 string COMMENT '新添加的列') CASCADE; alter table 表名 add colum

【Hive】Hive练习题50道

数据展示student表score表teacher表course表在hive中建表导入数据首先要先在hdfs上为每个数据建一个文件名相同的文件夹,以上的4张表都是txt格式的,放入hdfs相对应的文件夹后,使用以下语句建表(因为数据量不大,就直接建内部表)create table if not ex

查询所有HIVE表分区数据量

查询HIVE表分区的数据占用和行数,用于数据治理通常,每天一个分区;通常,今天查看昨天分区数据量本文日期分区字段为ymd

kettle连接hive

要替换kettle文件的位置:D:\programfile\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\hdp30。注意是要放在hdp30目录下的lib文件夹,而不是像把Oracle/MySQL驱动一样

hive之left semi join(左半连接)使用方法

目录一、建表数据准备二、语法三、left semi join例子四、left semi join、join、left join的区别1、left semi join2、left join3、join结语一、建表数据准备参考hive之full outer join(全连接)使用方法_IMezZ的博客-

Hive的动态分区与静态分区(区别及详解)

Hive的动态分区与静态分区

Hive SQL时间函数及用法

函数: last_day(string date)返回值:string返回该日期所属的月份的最后一天(截至Hive 1.1.0)。date为字符串,格式为“yyyy-MM-dd HH:mm:ss”或“yyyy-MM-dd”。日期的时间部分被忽略。

SPARKSQL3.0-Spark兼容多版本Hive源码分析

SPARKSQL3.0-Spark兼容多版本Hive源码分析

编写 Scala 工程代码,将 MySQL 库中的表增量抽取到 Hive库中对应表中

本文仅仅简单介绍了操作步骤,很多经验都来自于b站和博客上的大佬,以及身边的同学和老师转化而来的,赶在2022年最后一天做出总结,希望对大家也有帮助。

Hive 事务表 (Transactional Tables)

1. 为什么要使用事务表?2. 创建使用事务表

HiveSQL和SparkSQL的区别和联系

Hive和spark对比

Ranger (五) --------- 使用 Ranger 对 Hive 进行权限管理

使用 Ranger 对 Hive 进行权限管理

Hive 数据库常用基础命令

hive数据仓库的基本sql命令

hdfs小文件合并

hdfs小文件合并

hive和hbase的一些数据导入导出操作

hive 、hbase的一些基本操作

hive语法之insert overwrite/insert into

这里提到了hive2.3.0之后 如果表属性有("auto.purge"="true"),当insert overwrite的时候,之前的数据是不会移动到垃圾箱的(会移动哪里呢?这里提到了一个比较有意思的参数("immutable"="true") 这个单词是不可变的意思,insert into本身

Hive架构简述及工作原理

Hive是基于Hadoop的一个数据仓库管理工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL(HQL)查询功能。本质是将SQL转换为MapReduce程序(默认)。直接使用Hadoop MapReduce处理数据所面临的问题: 学习成本高,MapReduce实现复杂查询功能开发难度大,

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈