当前位置:Gxlcms > 数据库问题 > 【赵强老师】在Spark SQL中读取JSON文件

【赵强老师】在Spark SQL中读取JSON文件

时间:2021-07-01 10:21:17 帮助过:3人阅读

Spark SQL也能自动解析JSON数据集的Schema,读取JSON数据集为DataFrame格式。读取JSON数据集方法为SQLContext.read().json()。该方法将String格式的RDD或JSON文件转换为DataFrame。 需要注意的是,这里的JSON文件不是常规的JSON格式。JSON文件每一行必须包含一个独立的、自满足有效的JSON对象。如果用多行描述一个JSON对象,会导致读取出错。
  • 需要用到的测试数据:people.json
{"name":"Michael"}
{"name":"Andy", "age":30}
{"name":"Justin", "age":19} 
  • 定义路径
val path ="/root/temp/people.json" 
  • 读取Json文件,生成DataFrame:
val peopleDF = spark.read.json(path) 
  • 打印Schema结构信息
peopleDF.printSchema()

 技术图片

  • 创建临时视图
peopleDF.createOrReplaceTempView("people") 
  • 执行查询
spark.sql("SELECT name FROM people WHERE age=19").show

 技术图片

 

【赵强老师】在Spark SQL中读取JSON文件

标签:efault   引擎   并且   对象   数据   查询   注意   分布式   pat   

人气教程排行