最近需要处理Clickhouse里面的数据,经过上网查找总结一下spark读写Clickhouse的工具类已经遇到的问题点。具体Clickhouse的讲解本篇不做讲解,后面专门讲解这个。
一、clickhouse代码操作
话不多说直接看代码
1.引入依赖:
<dependency>
<groupId>ru.yandex.clickhouse</groupId>
<artifactId>clickhouse-jdbc</artifactId>
<version>0.2.4</version>
</dependency>
0.2.4 这个版本用的比较多一点
2.spark对象创建
val spark = SparkSession.builder().appName("testclickHouse")
.master("local")
.getOrCreate()
3.spark读取clickhouse数据:
def clickHouseRead(spark: SparkSession): DataFrame = {
val sql = "select * from test1"
//将结果提前存到临时表
val tablename = "( " + sql + " ) temp"
val url = "jdbc:clickhouse://192.168.0.0:
标签:
clickhouse
spark
本文转载自: https://blog.csdn.net/Alex_81D/article/details/130483023
版权归原作者 Alex_81D 所有, 如有侵权,请联系我们删除。
版权归原作者 Alex_81D 所有, 如有侵权,请联系我们删除。