如何优雅的实现pandas DataFrame 和spark dataFrame 相互转换
生活随笔
收集整理的這篇文章主要介紹了
如何优雅的实现pandas DataFrame 和spark dataFrame 相互转换
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
如何優雅的實現pandas DataFrame 和spark dataFrame 相互轉換
#!/usr/bin/env python3 # -*- coding: utf-8 -*- """ Created on Fri Jun 8 16:27:57 2018 @author: luogan """import pandas as pd from pyspark.sql import SparkSession spark= SparkSession\.builder \.appName("dataFrame") \.getOrCreate() # Loads data.ll3=pd.DataFrame([[1,2],[3,4]],columns=['a','b'])cc=ll3.values.tolist()dd=list(ll3.columns) #df=spark.createDataFrame(ll3)#turn pandas.DataFrame to spark.dataFrame spark_df = spark.createDataFrame(cc, dd)print('spark.dataFram=',spark_df.show())#turn spark.dataFrame to pandas.DataFrame pandas_df = spark_df .toPandas() print('pandas.DataFrame=',pandas_df) +---+---+ | a| b| +---+---+ | 1| 2| | 3| 4| +---+---+spark.dataFram= None pandas.DataFrame= a b 0 1 2 1 3 4posted on 2018-06-09 12:38 luoganttcc 閱讀(...) 評論(...) 編輯 收藏
總結
以上是生活随笔為你收集整理的如何优雅的实现pandas DataFrame 和spark dataFrame 相互转换的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: pyspark pipline
- 下一篇: pymysql 写入数据