0


PyFlink使用说明:建表及连接Mysql数据库

PyFlink1.16.0 使用说明:建表及连接Mysql数据库

引言

Flink已经成为 大数据开发 领域举足轻重的存在

直到 PyFlink1.16.0 版本,python已经支持95%以上的Fink功能

最好的学习办法是通过官方文档进行学习

但是官方文档中使用的例子,往往跑不通

需要有一定的经验积累,再进行不断调试,才能摸索到一定的门道

安装运行环境

环境根据最新的版本安装即可,需要注意最新的PyFlink支持的最大Python版本

如:PyFlink1.16.0 支持Python 3.6, 3.7, 3.8 or 3.9,大于3.9的版本就不支持了


PyFlink创建作业环境

PyFlink分为 DataStream API 和 Table API & SQL

在创建环境的方式上大概分为三种:

一、创建一个 Table API 批处理表环境

from pyflink.table import EnvironmentSettings, TableEnvironment
batch_env_settings = EnvironmentSettings.in_batch_mode()
batch_table_env = TableEnvironment.create(batch_env_settings)

二、创建一个 Table API 流处理表环境

from pyflink.table import EnvironmentSettings, TableEnvironment
stream_env_settings = EnvironmentSettings.in_streaming_mode()
stream_table_env = TableEnvironment.create(stream_env_settings)

三、创建一个 DataStream API 数据流处理环境

from pyflink.datastream import StreamExecutionEnvironment
from pyflink.table import StreamTableEnvironment
data_stream_env = StreamExecutionEnvironment.get_execution_environment()
data_stream_table_env = StreamTableEnvironment.create(data_stream_env)

PyFlink建表

Table 是 python table api的核心组件

对象描述数据转换的通道

它不以任何方式包含数据本身

相反,它描述了如何从表源读取数据

如何对数据添加一些计算以及如何最终将数据写入表接收器

声明管道可以 打印、优化并最终在集群中执行

管道可以使用有界或无界流

一、从Python List对象创建一个 Table

def create_table_from_list():
    """
    根据list数据,创建数据源表

    流模式、批模式 均可以创建成功
    :return:
    """
    table = batch_table_env.from_elements([(1, 'Hi'), (2, "Hello")])
    # table = stream_table_env.from_elements([(1,'Hi'),(2,"Hello")])
    print(table.get_schema())
    table.execute().print()

二、创建具有显式架构的 Table

def create_table_from_type():
    """
    在创建数据源表的时候,设置好字段类型和字段名称

    流模式、批模式 均可以创建成功
    :return:
    """
    # table = batch_table_env.from_elements([
    #     (1,"hi"),(2,"Hello")
    # ],
    # DataTypes.ROW([
    #     DataTypes.FIELD("id",DataTypes.TINYINT()),
    #     DataTypes.FIELD('data',DataTypes.STRING())
    # ]))
    table = stream_table_env.from_elements([
        (1, "hi"), (2, "Hello")
    ],
        DataTypes.ROW([
            DataTypes.FIELD("id", DataTypes.TINYINT()),
            DataTypes.FIELD('data', DataTypes.STRING())
        ]))
    print(table.get_schema())
    table.execute().print()

三、从pandas DataFrame创建一个table

def create_tabel_from_pandas():
    """
    pandas设置表数据

    流模式、批模式 均可以创建成功
    :return:
    """
    df = pd.DataFrame({
        'id': [1, 2],
        'data': ['Hi', 'Hello']
    })
    # table = batch_table_env.from_pandas(df)
    table = stream_table_env.from_pandas(df)
    print(table.get_schema())
    table.execute().print()

四、从DDL语句创建 Table

注意点:使用 批处理环境的时候,无法执行成功 ,必须使用 流处理环境
使用批处理环境报错信息:

Querying an unbounded table 'default_catalog.default_database.random_source' in batch mode is not allowed. The table source is unbounded.
def create_table_from_ddl():
    """
    使用sql语句创建数据源表

    注意点:使用 批处理环境的时候,无法执行成功
    必须使用 流处理环境
    :return:
    """
    create_sql = """
    CREATE TABLE random_source (
        id TINYINT,
        data STRING
    ) WITH (
        'connector' = 'datagen',
        'fields.id.kind' = 'sequence',
        'fields.id.start' = '1',
        'fields.id.end' = '2',
        'fields.data.kind' = 'random'
    )
    """

    # batch_table_env.execute_sql(create_sql )
    # table = batch_table_env.from_path("random_source")
    # table.get_schema()
    # table.execute().print()
    # 以上失败

    # 以下成功
    # stream_table_env.execute_sql(create_sql )
    # table = stream_table_env.from_path("random_source")
    # table.execute().print()
    data_stream_table_env.execute_sql(create_sql)
    table = data_stream_table_env.from_path("random_source")
    table.execute().print()

五、从 TableDescriptor 创建数据源表

注意点:使用 批处理环境的时候,无法执行成功 ,必须使用 流处理环境

def create_table_from_descriptor():
    """
    使用TableDescriptor,创建数据源表

    注意点:使用 批处理环境的时候,无法执行成功
    必须使用 流处理环境
    :return:
    """
    schema = (Schema.new_builder()
              .column('id', DataTypes.TINYINT())
              .column('data', DataTypes.STRING())
              .build())

    # table = batch_table_env.from_descriptor(
    # 以上失败

    # 以下成功
    table = stream_table_env.from_descriptor(
        TableDescriptor
        .for_connector('datagen')
        .option('fields.id.kind', 'sequence')
        .option('fields.id.start', '1')
        .option('fields.id.end', '2')
        .option('fields.data.kind', 'random')
        .schema(schema)
        .build()
    )
    table.get_schema()
    table.execute().print()

六、从 DataStream 创建 数据源表

def create_table_from_data_stream():
    """
    使用DataStream 创建数据源表
    创建方式与以上都不相同。
    环境设置数据和数据类型及字段名
    表环境设置数据源表
    :return:
    """
    data_stream_env = StreamExecutionEnvironment.get_execution_environment()
    data_stream_table_env = StreamTableEnvironment.create(data_stream_env)

    ds = data_stream_env.from_collection(
        [(1, 'Hi'), (2, 'Hello')],
        type_info=Types.ROW_NAMED(
            ['id', 'data'],
            [Types.BYTE(), Types.STRING()]
        )
    )

    table = data_stream_table_env.from_data_stream(
        ds,
        Schema.new_builder()
        .column('id', DataTypes.TINYINT())
        .column('data', DataTypes.STRING())
        .build()
    )
    table.get_schema()
    table.execute().print()

七、从Catalog 创建数据源表

def create_table_from_catalog():
    """
    流模式、批模式 均可以创建成功
    :return:
    """

    # old_table = batch_table_env.from_elements(
    old_table = stream_table_env.from_elements(
        [(1, "Hi"), (2, "Hello")],
        ["id", "data"]
    )
    # 创建临时 视图表
    # batch_table_env.create_temporary_view("source_table",old_table)
    stream_table_env.create_temporary_view("source_table", old_table)

    # table = batch_table_env.from_path("source_table")
    table = stream_table_env.from_path("source_table")

    table.get_schema()
    # table.execute().print()

PyFlink连接Mysql数据库

如果使用第三方 JAR,则可以在 Python 表 API 中指定 JAR

环境:
PyFlink版本是1.16.0,所以需要下载 :flink-connector-jdbc-1.16.0.jar
flink-connector-jdbc-1.16.0.jar下载地址

Mysql版本是8.0.30,所以需要下载:mysql-connector-java-8.0.30.jar
mysql-connector-java-8.0.30.jar下载地址

在这里插入图片描述

在创建表环境时,将 JAR 依赖添加到表环境

from pyflink.table import EnvironmentSettings, TableEnvironment

env_settings = EnvironmentSettings.in_streaming_mode()
table_env = TableEnvironment.create(env_settings)

jars = []
for file in os.listdir(os.path.abspath(os.path.dirname(__file__))):
    if file.endswith('.jar'):
        file_path = os.path.abspath(file)
        jars.append(file_path)

str_jars = ';'.join(['file:///' + jar for jar in jars])
table_env.get_config().get_configuration().set_string("pipeline.jars", str_jars)

不报错就是正确

PyFlink同步Mysql表数据到另一张表

思路:
1、需要创建一张数据源表,数据源表需要连接到数据库中的表
2、需要创建一张接收数据表,用于接收同步过来的数据
3、执行数据同步的sql语句或者table sql

注意点:
需要提前在数据库中建立好这两张表

一、创建表环境并添加数据库连接依赖

from pyflink.table import EnvironmentSettings, TableEnvironment

env_settings = EnvironmentSettings.in_streaming_mode()
table_env = TableEnvironment.create(env_settings)

jars = []
for file in os.listdir(os.path.abspath(os.path.dirname(__file__))):
    if file.endswith('.jar'):
        file_path = os.path.abspath(file)
        jars.append(file_path)

str_jars = ';'.join(['file:///' + jar for jar in jars])
table_env.get_config().get_configuration().set_string("pipeline.jars", str_jars)

二、创建数据源表

# 创建数据源表
create_source_table_sql = """
        CREATE TABLE source (
            user_id STRING,
            name STRING,
            telephone STRING,
            is_del STRING,
            PRIMARY KEY (user_id) NOT ENFORCED
        ) WITH (
            'connector' = 'jdbc',
            'url' = 'jdbc:mysql://******:33066/dim',
            'table-name' = 'source',
            'username' = '******',
            'password' = '******',
            'driver' = 'com.mysql.cj.jdbc.Driver'
        )
    """
table_env.execute_sql(create_source_table_sql)

三、创建接收数据表

# 创建接收结果表
create_sink_table_sql = """
        CREATE TABLE sink (
            user_id STRING,
            name STRING,
            telephone STRING,
            is_del STRING,
            PRIMARY KEY (user_id) NOT ENFORCED
        ) WITH (
            'connector' = 'jdbc',
            'url' = 'jdbc:mysql://******:3306/tmp',
            'table-name' = 'sink',
            'username' = '******',
            'password' = '******',
            'driver' = 'com.mysql.cj.jdbc.Driver'
        )
    """
table_env.execute_sql(create_sink_table_sql)

三、执行数据同步

table_env.execute_sql("INSERT INTO sink SELECT * FROM source").wait()

如有提示:

Loading class `com.mysql.jdbc.Driver'. This is deprecated. The new driver class is `com.mysql.cj.jdbc.Driver'. The driver is automatically registered via the SPI and manual loading of the driver class is generally unnecessary.

只需要在 WITH 中 添加 ‘driver’ = ‘com.mysql.cj.jdbc.Driver’ 即可

完整代码,将以上代码,按照顺序copy到编译器即可

不报错则表示运行成功

标签: mysql python flink

本文转载自: https://blog.csdn.net/weixin_43870646/article/details/128534232
版权归原作者 成都—大数据开发工程师—杨洋 所有, 如有侵权,请联系我们删除。

“PyFlink使用说明:建表及连接Mysql数据库”的评论:

还没有评论