50-100G大文件的处理办法
生活随笔
收集整理的這篇文章主要介紹了
50-100G大文件的处理办法
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
文章目錄
- 1. 使用分布式框架處理,如上次介紹的spark
- 2. 使用pandas chunk, 不比單機版的spark慢
- 3. 使用dask pandas , 分布式的pandas
1. 使用分布式框架處理,如上次介紹的spark
這種情況下集群才有優勢,local單機版只能使用8G內存,rdd的優勢也沒發揮出來,好在是多patition和多任務。
2. 使用pandas chunk, 不比單機版的spark慢
import pandas as pd df_chunk = pd.read_json('F://total.json', chunksize=1000000, lines=True,encoding='utf-8') chunk_list = [] # append each chunk df here i =1 #%% # Each chunk is in df format for chunk in df_chunk:# perform data filtering# chunk_filter = chunk_preprocessing(chunk)# Once the data filtering is done, append the chunk to list# chunk_list.append(chunk_filter)chunk_list.append(chunk)print("當前chunnk:{}".format(i))i += 1# concat the list into dataframe df_concat = pd.concat(chunk_list)每塊100萬跑滿16G內存。上述方法用到list,也就是處理后的數據list不能超過你電腦的內存,有局限性。
3. 使用dask pandas , 分布式的pandas
import dask import dask.dataframe as dd from dask.distributed import Client client = Client(processes=False, threads_per_worker=4, n_workers=4, memory_limit='12GB') #%% df = dd.read_csv("F://total2.csv", blocksize=25e6,encoding='utf-8',dtype='object') #%% for i in df.columns:print("{}".format(df.head(1)[i]))#%% logs = 'Mismatched dtypes found in `pd.read_csv`/`pd.read_table`.\n\n+----------------------------------+--------+----------+\n| Column | Found | Expected |\n+----------------------------------+--------+----------+\n| check.0.reportorphone | object | float64 |\n| damagetypecode | object | float64 |\n| lossmain.0.handlercode | object | float64 |\n| lossmain.0.repairbrandcode | object | float64 |\n| lossmain.0.repairbrandname | object | float64 |\n| lossmain.0.repairfactorycode | object | float64 |\n| lossmain.0.repairfactoryname | object | float64 |\n| lossthirdparty.0.insurecomcode | object | float64 |\n| lossthirdparty.0.losscarkindname | object | float64 |\n| lossthirdparty.0.thirdcarlinker | object | float64 |\n| lossthirdparty.0.vinno | object | float64 |\n| phonenumber | object | int64 |\n| prplcitemcar.0.brandid | object | float64 |\n| prplcitemcar.0.brandname1 ' print(logs)上述log錯誤的接解決方法:dtype=‘object’
與50位技術專家面對面20年技術見證,附贈技術全景圖總結
以上是生活随笔為你收集整理的50-100G大文件的处理办法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: spark搭建和使用,处理massive
- 下一篇: pandas读取大文件csv容易出现的错