sparkSQL操作hiveSQL
生活随笔
收集整理的這篇文章主要介紹了
sparkSQL操作hiveSQL
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
sparkSQL操作hiveSQL
<dependency><groupId>org.apache.spark</groupId><artifactId>spark-hive_2.11</artifactId><version>2.3.3</version></dependency> import org.apache.spark.sql.SparkSession//todo:利用sparksql操作hivesql object HiveSupport {def main(args: Array[String]): Unit = {//1、構建SparkSession對象val spark: SparkSession = SparkSession.builder().appName("HiveSupport").master("local[2]").enableHiveSupport() //開啟對hive的支持.getOrCreate()//2、直接使用sparkSession去操作hivesql語句//2.1 創建一張hive表spark.sql("create table people(id string,name string,age int) row format delimited fields terminated by ','")//2.2 加載數據到hive表中spark.sql("load data local inpath './data/kaikeba.txt' into table people ")//2.3 查詢spark.sql("select * from people").show()spark.stop()} }總結
以上是生活随笔為你收集整理的sparkSQL操作hiveSQL的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 根据经纬度求最近点的三种解法java实现
- 下一篇: Elasticsearch Java L