饿了么基于Flink+Paimon+StarRocks的实时湖仓探索
作者:王沛斌@饿了么本文整理自饿了么大数据架构师、Apache Flink Contributor 王沛斌老师在8月3日 Streaming Lakehouse Meetup Online(Paimon x StarRocks,共话实时湖仓架构)上的分享。主要分为以下三个内容:1. 饿了么实时数仓演
贝壳找房基于Flink+Paimon进行全量数据实时分组排序的实践
本文投稿自贝壳家装数仓团队,在结合家装业务场景下所探索出的一种基于 Flink+Paimon 的排序方案。这种方案可以在实时环境对全量数据进行准确的分组排序,同时减少对内存资源的消耗。
揭秘“湖仓一体”——Flink+Paimon+StarRocks,打造实时分析新纪元
数据湖仓是 Flink 流批一体发挥重要作用的场景,使用 Flink + Paimon + starRocks 来构建湖仓一体数据分析.
数据湖技术选型——Flink+Paimon 方向
本文结合 Flink 对几大数据湖选型进行了对比,最终选择使用 Flink + Paimon 技术栈。
4 Paimon数据湖之Hive Catalog的使用
Paimon提供了两种类型的Catalog:Filesystem Catalog和Hive Catalog。
6 Hive引擎集成Apache Paimon
想要在Hive中操作Paimon,首先需要在Hive中配置Paimon的依赖,此时我们需要用到一个jar包:paimon-hive-connector。
5 Paimon数据湖之表数据查询详解
主要涉及Paimon中系统表的查询、批量读取、流式读取,以及时间旅行特性的使用。