Spark SQL知识点整理

创建SparkSession类型对象 import org.apache.spark.sql.SparkSession val spark = Spark.Session.builder().getOrCreate() 如果用户进入Spark-shell中,则自动创建spark对象(另一个是sc) 隐式转换包 import spark.implicits._ 隐式转换包用于构建DataFrame(从RDD、Hive等来源构建) 数据读取 去看看~