秋招面试题系列- - -Java工程师(八)

接收到客户端请求,处理请求判断是否需要注册 Watcher,需要的话将数据节点的节点路径和 ServerCnxn(ServerCnxn代表一个客户端和服务端的连接,实现了 Watcher的 process接口,此时可以看成一个 Watcher对象)存储在。通过设置 Chroot,能够将一个客户端应用

中秋邀请共赏图数据库-蚂蚁集团图数据TuGraph 正式开源

蚂蚁集团图数据TuGraph 正式开源

Flink高频面试题( 精简 )

作为大数据领域炙手可热的大数据组件,Flink作为大数据行业跳槽必问的组件,整理一些Flink相关的面试题供大家参考,有些题言简意赅即可,大多数的博客冗余一堆的知识点,看完要好久,我想帮大家提炼总结出核心的点,以帮助大家临阵磨枪,短时间掌握,当你把知识提炼出来,你会发现你的知识进步了,当你把简单提炼

记一次HBase启动异常的恢复历程

我去hdfs这个表对应的目录下面查看发现.regioninfo文件是存在的,但meta表中确实没有相关信息,既然是这样情况,那理论上通过-fixMeta应该就可以修复Meta数据,但是实际上执行-fixMeta后并没有实际的效果。至些,这个HBase启动的问题算是彻底修复了,虽然,但是,关于最后的.

hbase架构详解

flink之hbase

湖仓一体电商项目(十):业务实现之编写写入DWD层业务代码

编写处理Kafka ODS层数据写入Iceberg-DWD层数据时,由于在Kafka “KAFKA-ODS-TOPIC”topic中每条数据都已经有对应写入kafka的topic信息,所以这里我们只需要读取“KAFKA-ODS-TOPIC”topic中的数据写入到Iceberg-DWD层中,另外动态

开学季征文 | 新学期,新flag

Hello,大家好,我叫朱琨鹏,来自商丘师范学院,今年是一名准大三学生,我的专业是数据科学与大数据技术,与木有同僚呢?欢迎大家来咨询学习的问题哦,咱们在新学期互相学习。

Kakfa怎么保证消息的一致性

Kafka的也存在Leader和Follow节点,这样就会有一致性问题。

1分钟理解Flink中Watermark机制

1分钟理解Flink中Watermark

Rabbitmq消费者保证幂等性

rabbitmq幂等性问题

Ubuntu 安装启动 Kafka

先关闭生产者和消费者客户端,再关闭kafka broker,最后关闭zookeeper。3.2 配置/config/zookeeper.properties。3.1 配置/config/server.properties。(1).存活时间(默认168)(2).配置IP与端口号。10.2 关闭zook

通过Elasticsearch 8、Kibana、Filebeat实现日志的监控及统计

通过Elasticsearch 8、Kibana、Filebeat实现日志的监控及统计

flink 窗口和水位线

window、watermark

hbase

Hbase架构图及读写流程

Elasticsearch:无需基本身份验证即可创建用于访问的不记名令牌

在很多的时候我们并不希望把用户名及密码分发出去,这是因为一旦拥有用户名及密码,你就可以直接登录系统,你甚至可以做更多的事情。另外一方面,用户名及密码还没有期限设定,除非我们在系统中把这个用户删除掉。为了能够使得客户端能够正常访问 Elasticsearch 集群,我们可以创建 API key 来进行

RocketMQ源码(7)—Producer发送消息源码(1)—发送消息的总体流程【一万字】

基于RocketMQ 4.9.3,详细的介绍了Producer发送消息的总体流程的源码,包括生产者重试机制、生产者故障转移机制、VIP通道等知识都会一一介绍。

大数据_湖仓一体:下一代存储解决方案

湖仓一体可以存储、优化、分析和访问所有类型的数据,无论数据是结构化的、半结构化的,还是非结构化的,这一点和数据库不同,但和数据湖差不多。湖仓一体可以存储、优化、分析和访问所有类型的数据,无论数据是结构化的、半结构化的,还是非结构化的,这一点和数据库不同,但和数据湖差不多。新的系统设计让湖仓一体成为可

【毕业设计】基于大数据的高考数据分析 - python 大数据 可视化

🚩 基于大数据的高考数据分析🥇学长这里给一个题目综合评分(每项满分5分)🧿 选题指导, 项目分享:https://gitee.com/dancheng-senior/project-sharing-1/blob/master/%E6%AF%95%E8%AE%BE%E6%8C%87%E5%AF

猿创征文|【云原生 | 27】Docker部署运行开源消息队列实现RabbitMQ

AMQP架构中有两个主要组件:Exchange和Queue,两者都在服务端,又称Broker,由RabbitMQ实现的。客户端通常有Producer和Consumer两种类型

折腾一晚上的事情,明白了一个道理

感悟:有时候很简单的笨办法,比那些高大上的技术要实用的多。有一个数据同步,大约4亿条记录,没有分区。现在要按照天,小时分区写入到iceberg的分区表中。源数据中本身就是很多几十k大小的非常多的小文件。于是在读取时,总想着要shuffle,合并小文件,于是是这样的:hive_df = spark.t

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈