0


快速体验 Flink Table Store 入门篇

在本地安装单机版本,能够实现快速体验 Flink Table Store 的目的,本文以 Flink 1.15.2、flink-table-store-dist-0.2.1 和 flink-shaded-hadoop-2-uber-2.8.3-10.0 为例,系统为 Centos 3.10。

下载

  • 1、下载 Flink 1.15.2
  1. https://www.apache.org/dyn/closer.lua/flink/flink-1.15.2/flink-1.15.2-bin-scala_2.12.tgz
  • 2、下载 Table Store 包
  1. https://www.apache.org/dyn/closer.lua/flink/flink-table-store-0.2.1/flink-table-store-dist-0.2.1.jar
  • 3、下载 hadoop 包
  1. https://repo.maven.apache.org/maven2/org/apache/flink/flink-shaded-hadoop-2-uber/2.8.3-10.0/flink-shaded-hadoop-2-uber-2.8.3-10.0.jar

安装

将下载好的 flink-1.15.2-bin-scala_2.12.tgz、flink-table-store-dist-0.2.1.jar 和 flink-shaded-hadoop-2-uber-2.8.3-10.0.jar 都放到安装目录下,执行以下步骤完成安装:

  • tar -xzf flink-1.15.2-bin-scala_2.12.tgz
  • cp flink-table-store-dist-0.2.1.jar flink-1.15.2/lib/
  • cp flink-shaded-hadoop-2-uber-2.8.3-10.0.jar flink-1.15.2/lib/

配置

编辑 conf 目录下的配置文件 flink-conf.yaml,将配置项 taskmanager.numberOfTaskSlots 的值改为 2 。

  1. vi ./conf/flink-conf.yaml
  2. taskmanager.numberOfTaskSlots: 2

启动本地(单机模式)集群

  1. ./bin/start-cluster.sh

如果启动成功,则执行 jps 命令可看到 TaskManagerRunner 和 StandaloneSessionClusterEntrypoint 两个进程,执行“netstat -lpnt”可看到开启了 127.0.0.1:8081 看板端口。如果想修改看板端口,则只需要编辑配置文件 conf/flink-conf.yaml,将配置项 rest.port 改为其它值,然后重启(执行 bin/stop-cluster.sh 停止本地集群)即可。默认看板的地址为 localhost,如果需要远程查看,则还需要修改配置项 rest.bind-address,比如可将 localhost 改为 0.0.0.0 。

如果启动报错“Unsupported major.minor version 52.0”,这是因为 JDK 的版本不匹配,可执行命令“java -version”查看 JDK 的版本。根据 flink-1.15 的发布说明,建议 Java 11,但 Java 8 也可以。本文使用“Tencent Kona JDK 11.0.17”,下载地址:

  1. https://github.com/Tencent/TencentKona-11/releases/download/kona11.0.17/TencentKona-11.0.17.b1-jdk_linux-x86_64.tar.gz

可将 TencentKona-11.0.17.b1-jdk_linux-x86_64.tar.gz 上传到 /usr/local 目录,然后解压,再建立软链接:

  1. cd /usr/local
  2. tar xzf TencentKona-11.0.17.b1-jdk_linux-x86_64.tar.gz
  3. ln -s TencentKona-11.0.17.b1 jdk

将 JDK 加入 PATH 中:

  1. export JAVA_HOME=/usr/local/jdk
  2. export PATH=$JAVA_HOME/bin:$PATH
  3. export CLASSPATH=$JAVA_HOME/lib/tools.jar

启动成功后,就可开始体验了。

体验 Flink Table Store

以单机模式执行“./bin/sql-client.sh embedded”,进入 SQL 操作界面,然后可按如下步骤开始体验:

  • 1、创建表*
  1. CREATE CATALOG my_catalog WITH (
  2. 'type'='table-store',
  3. 'warehouse'='file:/tmp/table_store'
  4. );
  5. USE CATALOG my_catalog;
  6. -- create a word count table
  7. CREATE TABLE word_count (
  8. word STRING PRIMARY KEY NOT ENFORCED,
  9. cnt BIGINT
  10. );
  • 2、写数据
  1. -- create a word data generator table
  2. CREATE TEMPORARY TABLE word_table (
  3. word STRING
  4. ) WITH (
  5. 'connector' = 'datagen',
  6. 'rows-per-second'='10',
  7. 'fields.word.length' = '1'
  8. );
  9. -- table store requires checkpoint interval in streaming mode
  10. SET 'execution.checkpointing.interval' = '10 s';
  11. -- write streaming data to dynamic table
  12. -- flink 的看板可看到产生了一个 job
  13. INSERT INTO word_count SELECT word, COUNT(*) FROM word_table GROUP BY word;

注意,对表 word_table 只能执行流查询,执行批查询时会报如下所示的错误:

  1. org.apache.flink.table.api.ValidationException: Querying an unbounded table 'my_catalog.default.word_table' in batch mode is not allowed. The table source is unbounded.
  • 3、批量查询
  1. -- 设置结果输出模式为 tableau,即表哥方式输出
  2. SET 'sql-client.execution.result-mode' = 'tableau';
  3. -- 切换到批模式
  4. RESET 'execution.checkpointing.interval';
  5. SET 'execution.runtime-mode' = 'batch';
  6. SELECT * FROM word_count;
  • 4、流式查询
  1. -- 切换到流模式
  2. SET 'execution.runtime-mode' = 'streaming';
  3. SELECT * FROM word_count; -- log.scan 默认为 full,表示从头查
  4. -- 从最新的开始查
  5. SELECT * FROM word_count /*+ OPTIONS ('log.scan'='latest') */;
  • 5、结束体验
  1. -- drop the dynamic table, clear the files
  2. DROP TABLE word_count;
  3. -- exit sql-client
  4. EXIT;
标签: flink scala hadoop

本文转载自: https://blog.csdn.net/Aquester/article/details/127834798
版权归原作者 一见 所有, 如有侵权,请联系我们删除。

“快速体验 Flink Table Store 入门篇”的评论:

还没有评论