饿了么基于Flink+Paimon+StarRocks的实时湖仓探索

作者:王沛斌@饿了么本文整理自饿了么大数据架构师、Apache Flink Contributor 王沛斌老师在8月3日 Streaming Lakehouse Meetup Online(Paimon x StarRocks,共话实时湖仓架构)上的分享。主要分为以下三个内容:1. 饿了么实时数仓演

贝壳找房基于Flink+Paimon进行全量数据实时分组排序的实践

本文投稿自贝壳家装数仓团队,在结合家装业务场景下所探索出的一种基于 Flink+Paimon 的排序方案。这种方案可以在实时环境对全量数据进行准确的分组排序,同时减少对内存资源的消耗。

揭秘“湖仓一体”——Flink+Paimon+StarRocks,打造实时分析新纪元

数据湖仓是 Flink 流批一体发挥重要作用的场景,使用 Flink + Paimon + starRocks 来构建湖仓一体数据分析.

数据湖技术选型——Flink+Paimon 方向

本文结合 Flink 对几大数据湖选型进行了对比,最终选择使用 Flink + Paimon 技术栈。

4 Paimon数据湖之Hive Catalog的使用

Paimon提供了两种类型的Catalog:Filesystem Catalog和Hive Catalog。

6 Hive引擎集成Apache Paimon

想要在Hive中操作Paimon,首先需要在Hive中配置Paimon的依赖,此时我们需要用到一个jar包:paimon-hive-connector。

5 Paimon数据湖之表数据查询详解

主要涉及Paimon中系统表的查询、批量读取、流式读取,以及时间旅行特性的使用。

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈