Spark-RDD和共享变量

每个Spark应用程序都由一个组成,该驱动程序运行我们编写的main函数,并在集群上执行各种操作。Spark提供的主要抽象是一个弹性分布式数据集,它是一个跨集群节点分区的元素集合,可以并行操作。RDD是通过从Hadoop文件系统(或任何其他Hadoop支持的文件系统)中的文件或中现有的Scala集合

数据仓库面试题(二)

1. 简述星型模型和雪花模型的区别?应用场景 ?2. 简述数仓建模有哪些方式 ?3. 简述数仓建模的流程 ?4. 简述维度建模的步骤,如何确定这些维度的 ?5. 简述维度建模和范式建模区别 ?6. 简述维度表和事实表的区别 ?

Spark实时(一):StructuredStreaming 介绍

SparkStreaming与Structured Streaming相比较,SparkStreaming是Spark最初的流处理框架,只能使用DStream算子编程,底层是RDD操作,而Structured Streaming是Spark2.0后退出的流式处理框架,处理支持Spark,底层操作是基

Spark实时(四):Strctured Streaming简单应用

Continuous不再是周期性启动task的批量执行数,而是启动长期运行的task,而是不断一个一个数据进行处理,周期性的通过指定checkpoint来记录状态(如果不指定checkpoint目录,会将状态记录在Temp目录下),保证exactly-once语义,这样就可以实现低延迟。注意:以上代

Spark SQL 血缘解析方案

瞬间是不是感觉清晰了,可以完美的拿到表和表以及字段和字段的关系,甚至在加工点场景,可以吧字段的加工表达式可以给生成出来.这里需要注意原生的json文件太大,在发送到kafka中对存储和带宽都有压力,最后注意:血缘的解析处理,放在该agent端, 否则kafka的压力会很大,因为单条消息生产环境下会很

Spark和Flink的介绍、区别以及各自的应用场景

介绍Apache Spark是一个快速、通用的大规模数据处理引擎,由加州大学伯克利分校AMPLab开发,并于2010年开源。Spark基于内存计算,提供了比传统Hadoop MapReduce框架快数十倍的速度,并简化了大规模数据处理的复杂性。它支持多种编程语言(如Scala、Java、Python

数仓: 1- 数据仓库基础

数据仓库 ( Data Warehouse, 简称DW或DWH ) , 也称为企业数据仓库 ( EDW ) , 是一个用于报告和数据分析的系统, 被认为是商业智能的核心组成部分 ; 数据仓库是一个面向主题的、集成的、时变的、非易失的数据集合, 用于支持管理决策 ;​ 它可以帮助企业整合来自不同数据源

摸鱼大数据——Spark基础——Spark On Yarn环境配置和部署

export/data/spark_project/spark_base/05_词频统计案例_spark_on_yarn运行.py。/export/data/spark_project/spark_base/05_词频统计案例_spark_on_yarn运行.py。/export/data/spar

Kafka和Spark Streaming的组合使用学习笔记(Spark 3.5.1)

二、启动Kafaka1.首先需要启动Kafka,打开一个终端,输入下面命令启动Zookeeper服务:注意:以上现象是Zookeeper服务器已经启动,正在处于服务状态。不要关闭!注意:同样不要误以为死机了,而是Kafka服务器已经启动,正在处于服务状态。2.然后,可以执行如下命令,查看名称为“wo

基于CDH 6.3.0 搭建 Hive on Spark 及相关配置和调优

但是这样有个问题是当集群有多个用户运行Hive查询时会有问题,应避免为每个用户的会话分配固定数量的executor,因为executor分配后不能回其他用户的查询使用,如果有空闲的executor,在生产环境中,计划分配好executor可以更充分的利用Spark集群资源。启动并发GC周期时的堆内存

深入解析数据仓库ADS层-从理论到实践的全面指南

探索ADS层的核心概念、设计原则和实现方法。学习如何构建高性能、安全可靠的数据应用层,包括星型模型设计、查询优化、增量更新等关键技术。掌握性能调优、数据生命周期管理和持续优化的最佳实践。洞察ADS层未来趋势:实时数据集市、机器学习集成、图数据模型和自然语言查询接口。无论您是数据工程师、分析师还是架构

写一个spark的java程序

通过本篇博客,我们介绍了如何编写一个简单的Spark的Java程序。在实际开发中,您可以根据需求和数据处理逻辑编写更复杂的Spark作业,运用Spark强大的计算能力来处理大规模数据集。希望这篇博客能帮助您快速入门Spark的Java编程,享受Spark带来的高效和便利!

基于Spark的实时计算服务的流程架构

基于Spark的实时计算服务的流程架构包括数据源、数据接收、实时计算框架(Spark Streaming或Structured Streaming)、数据处理、数据存储、数据输出以及监控和管理多个组件。每个组件在整个流程中都扮演着关键的角色,确保数据从采集到处理再到输出的高效和可靠。

《基于 CDC、Spark Streaming、Kafka 实现患者指标采集》

本篇文章分享一下博主所在公司的患者指标采集的解决方案。主要是基于实现,由于涉及公司隐私,内容主要以方案介绍为主,有需要探讨的可以留言。好,让我们开始。上文介绍了博主所在公司的《基于 CDC、Spark Streaming、Kafka 实现患者指标采集》方案。💗 后续会逐步分享企业实际开发中的实战经

Spark实时(三):Structured Streaming入门案例

我们使用Structured Streaming来监控socket数据统计WordCount。

Spark学习

系统的学习spark

面试专区|【100道Spark高频题整理(附答案背诵版)】

Spark 是一个开源的大数据处理框架,它被设计来进行高速度、通用性和易用性的大规模数据处理。Spark 最初由加州大学伯克利分校的AMPLab 开发,后来成为Apache软件基金会的顶级项目。快速性:Spark 使用了内存计算技术,相较于Hadoop的MapReduce,它能更快地处理大规模数据集

Hive/Spark窗口函数

结果中,对于每一行的last_value的结果都是当前值,并不分区中按salary升序的最后一个值。前面在提到last_value时,特意强调了该函数的结果并不是分区中的最后一个值,结合上述介绍的window specification再来看下该函数的结果值。注意,默认情况下last_value取的

Spark概述及Scala搭建操作步骤

现在Apache Spark已经形成一个丰富的生态圈,包括官方和第三方开发的组件或工具。Spark生态圈也称为伯克利数据分析栈,由AMPLab打造,是致力于在算法,机器,人之间通过大规模集成展现大数据应用的平台。1.Spark Core:spark的核心,提供底层框架及核心支持。2.BlinkDB:

Spark复习

spark在内存中的运行速度是Hadoop mapreduce 运行速度的100多倍,spark在磁盘中的运行速度是Hadoop mapreduce运行速度的10多倍。spark用内存,Hadoop mapreduce用硬盘。spark支持使用Scala、python、java、R等语言快速编写应用

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈