SparkSQL之DataFrame案例
生活随笔
收集整理的這篇文章主要介紹了
SparkSQL之DataFrame案例
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
待處理文件
準備待處理文件student.data,內容如下:
1|vincent|13827460000|gvark@eyou.com 2|jenny|13827460002|ovwgofpa@56.com 3|sofia|13827460003|jfbmgpm@netease.com 4|natasha|13827460004|vjtw@35.com 5|catalina|13827460005|bpnoc@qq.com 6|jax|13827460006|rfieancklpvq@yahoo.com.cn 7|missfortune|13827460007|crwglpmmwsv@qq.com 8|anny|13827460008|nmbigtektdbow@qq.com 9|jinx|13827460009|jqu@xinhuanet 10|ezrio|13827460010|wvvoio@netease.com 11|lucas|13827460011|fgn@email.com.cn 12||13827460012|klukgp@yahoo.com.cn 13|NULL|13827460013|pgovoloacfuoed@etang.com特別注意最后第二個字段有特點。
代碼實現
首先測試分隔符:
package cn.ac.iie.sparkimport org.apache.spark.sql.SparkSession/*** DataFrame中的操作*/ object DataFrameCase {def main(args: Array[String]): Unit = {val DataFrameCase = SparkSession.builder().appName("DataFrameCase").master("local[2]").getOrCreate()val rdd = DataFrameCase.sparkContext.textFile("file:///E:/test/student.data")// 注意需要導入隱式轉換import DataFrameCase.implicits._val studenntDF = rdd.map(_.split("\\")).map(line => Student(line(0).toInt, line(1), line(2), line(3))).toDF()studenntDF.show()DataFrameCase.close()}case class Student(id: Int, name: String, phone: String, email: String) }輸出如下:
注意分隔符應該使用轉義字符進行轉移,否則出現下面的情況,就不是我們所期望的了:
同時可以看到,當郵箱長度過長時,會出現...的情況。
可以使用show(20, false)重載方法(第一個參數表示顯示多少行,第二個方式表示是否截取),來解決這個問題。
- studenntDF.select("email").show:只顯示email數據
- studenntDF.filter("name='' OR name='NULL'").show(false):只顯示name為空或者NULL的數據
- studenntDF.filter("SUBSTR(name,0,1)='v'").show(false):顯示name第一個字符為v的數據。SUBSTR與SUBSTRING等價。
- studenntDF.sort(studenntDF.col("name")).show():按照name進行字母順序排序
- studenntDF.sort(studenntDF.col("name").desc).show():按照name進行降序排序
- studenntDF.sort(studenntDF.col("name").desc, studenntDF.col("email")).show():按照name進行降序,email進行升序
- studenntDF.join(studenntDF2, studenntDF.col("id") === studenntDF2.col("id"), "inner").show():進行join操作,默認是內連接。
總結
以上是生活随笔為你收集整理的SparkSQL之DataFrame案例的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Spark SQL之RDD转DataFr
- 下一篇: Spark SQL之DataSet