hive-SQL学习笔记11

之前有人问我,如何挑出一个月的最大值及其特征,比如有三列,分别是user_id,item_id,time,其中time是停留时长,这个问题就是找出这个用户,他这一行是什么,我当时就懵逼了。我说我直接全部拉下来这个月的数据,然后py操作取最大值即可。。。game overFor Recommendat

DolphinScheduler无故删除HDFS上的Hive库表目录

亲爱的朋友们,我可爱的同事又搞了个大BUG待我慢慢道来…DolphinScheduler大家应该都用过,中国人开源的一个调度工具,类似Azkaban,本次的事情就是在DolphinScheduler上发生的。据领导描述,某团队负责的某业务数仓上云后,HDFS上的Hive库表目录总是无故被删,他们找不

MapJoin工作机制

如果不指定MapJoin或者不符合mapJoin的条件,那么HIve解析器会将Join操作转换成Common Join,也就是说在reduce阶完成Join容易发生数据倾斜。mapJoin工作机制通过mapReduce Local Task,将小表读入到内存中生成HashTableFiles 上传到

Hive之解析Json数组

目录Hive自带的json解析函数1、get_json_object函数2、json_tuple函数Hive解析json数组一、嵌套子查询解析json数组二、使用 lateral view 解析json数组Hive自带的json解析函数1、get_json_object函数语法:get_json_o

hive之连续登录问题

目录1、开窗函数的格式2、窗口范围图例连续登录问题:限制时间段内登录次数问题:1、开窗函数的格式FUNCTION_NAME([argument_list])OVER ([PARTITION BY window_partition,…][ORDER BY window_ordering, … [ASC

02、Hive数据仓库——SQL员工练习题

Hive数据仓库——SQL员工练习题

Flink 版本数据湖(hudi)实时数仓---flinkcdc hudi kafak hive

1.架构图2.实现实例2.1 通过flink cdc 的两张表 合并 成一张视图, 同时写入到数据湖(hudi) 中 同时写入到kafka 中2.2 实现思路1.在flinksql 中创建flink cdc 表2.创建视图(用两张表关联后需要的列的结果显示为一张速度)3.创建输出表,关联Hudi表

1、Hive数据仓库——概念及架构

文章目录Hive 1.2.1Hive 是什么Hive 1.2.1Hive 是什么  Hive是建立在Hadoop上的数据仓库基础

flink cdc 整合 数据湖hudi 同步 hive

1. 版本说明组件版本hudi10.0flink13.5hive3.1.02. 实现效果 通过flink cdc 整合 hudi 到hiveflink cdc 讲解flink cdc 1.2实例flink cdc 2.0 实例

FlinkSQL连接Hive并动态插入进Hive数据库中

大家好,我是代码搬运工。最近在利用FlinkSQL进行开发连接Hive数据库的时候遇到了一些小问题,接下来分享给大家以免以后踩坑。在一个项目中我主要利用FlinkSQL来连接Hive数据库并执行Insert动态插入语句来关联设备信息,话不多说我们直接开始。1.首先我们先用FlinkSQL连接Hive

2、Hive数据仓库——环境搭建及简单使用

Hive 是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL ),这是一种可以存储、查询和分析存储在 Hadoop 中的大规模数据的机制。Hive 定义了简单的类 SQL 查询语言,称为 HQL ,它允许熟悉 SQL 的用户查询数据。同时

金融风控实战——Hive详解(数据读取、预处理、特征工程)

大数据技术介绍大数据技术的介绍:  1、存储,我们需要了解在大数据的架构下,数据大致是怎么进行存储的,传统的文件系统是单机的,不能横跨不同的机器。HDFS(Hadoop Distributed FileSystem)的设计本质上是为了大量的数据能横跨成百上千台机器,但是用户在实际的应用中,看到的是一

【大数据】Hive可视化工具dbeaver

Hive可视化工具dbeaver1、dbeaver基本介绍dbeaver是一个图形化的界面工具,专门用于与各种数据库的集成,通过dbeaver我们可以与各种数据库进行集成通过图形化界面的方式来操作我们的数据库与数据库表,类似于我们的sqlyog或者navicat。2、下载dbeaver我们可以直接从

Spark追妻系列(Spark初了解)

感觉每天又有了希望,又有动力,感觉学习尽头十足Spark是什么Spark是一个用来实现快速而通用的集群计算的平台。在之前,学习了MR,学习了hadoop,用mapreduce来对数据进行处理,但是hadoop是用批处理的,而且还有延迟,况且,出来了Hive,Hive将sql转化为mr算子。可以不用去

Hive hql 经典5道面试题

最近在深入了解Hive,尚硅谷的这5道题很经典,有引导意义,分步解题也很有用,故记录之,方便回看1.连续问题如下数据为蚂蚁森林中用户领取的减少碳排放量找出连续 3 天及以上减少碳排放量在 100 以上的用户id dt lowcarbon1001 2021-12-12 1231002 2021-12-

hive中多表full join主键重复问题

目录0. 其他1. 问题描述2. 问题复现2.1. 建表语句2.2. 插入数据2.3. 查询SQL以及问题3. 问题原因4. 问题解决0. 其他1. 问题描述在Hive中(其他类似SQL,比如PostgreSQL可能也存在此问题),当对多张表(3张及以上)进行full join时,会存在每张表的主键

hive_实现ip的十进制和点分十进制(xxx.xxx.xxx.xxx)之间的相互转换

hive实现ip的十进制和点分十进制(xxx.xxx.xxx.xxx)之间相互转换

hive函数 next_day

hive函数-next_daynext_day 下周几next_day (date,char) 取当前天的下一个周一例子 select next_day(‘2021-12-30’,‘MO’);-- 2022-01-03下周一next_day(‘2020-06-14’, ‘mon’)本周一date_s

hive metastore配置kerberos认证

hive从3.0.0开始提供hive metastore单独服务作为像presto、flink、spark等组件的元数据中心。但是默认情况下hive metastore在启动之后是不需要进行认证就可以访问的。所以本文基于大数据组件中流行的kerberos认证方式,对hive metastore进行认

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈