0


Spark读取CSV文件(Scala)

Spark核心代码

import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.types.{DataTypes, StructField, StructType}

object ReadCSV {

  val schema = new StructType(Array(
    StructField("product_id",DataTypes.StringType),
    StructField("product_name",DataTypes.StringType),
    StructField("enterprise_name",DataTypes.StringType),
    StructField("entry_name",DataTypes.StringType)
  ))
  def main(args: Array[String]): Unit = {

    val spark = SparkSession
      .builder()
      .master("local")
      .appName("SNF-Income")
      .getOrCreate()

    val salesDF = spark.read
      .option("header", "true")
      .schema(schema)
      .format("csv")
      .load("./data/income_sales.csv")

    salesDF.show(10)
  }

}

参数说明:

format: 指定读取的文件格式:csv。

header: 是否指定首行作为schema。

schema: 指定数据字段的格式。

option里面的参数说明:
参数 说明header默认为falase, 将第一行作为列名encoding默认是utf-8, 通过给定的编码类型进行解码sep 默认是“,”,指单个字符分割字段和值inferSchema默认为false, 从数据自动推断输入模式,需要对数据进行一次额外的传递。如:option("inferSchema",true.toString) ; 这是自动推断属性列的数据类型multiLine 默认为false,解析第一条记录,该记录可能跨越多行。nullValue默认是空的字符串,设置null值的字符串形式。从2.0.1开始,适用于所有支持的类型,包括字符串类型emptyValue 默认是空字符串,设置一个空值的字符串。

标签: spark scala 大数据

本文转载自: https://blog.csdn.net/nxcjh321/article/details/126309094
版权归原作者 小狼躲藏 所有, 如有侵权,请联系我们删除。

“Spark读取CSV文件(Scala)”的评论:

还没有评论