免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
Pandas DataFrame 數(shù)據(jù)存儲格式比較

Pandas 支持多種存儲格式,在本文中將對不同類型存儲格式下的Pandas Dataframe的讀取速度、寫入速度和大小的進行測試對比。

創(chuàng)建測試Dataframe

首先創(chuàng)建一個包含不同類型數(shù)據(jù)的測試Pandas Dataframe。

import pandas as pdimport randomimport stringimport numpy as np# Config DFdf_length= 10**6start_date= '2023-01-01'all_string= list(string.ascii_letters + string.digits)string_length= 10**1min_number= 0max_number= 10**3# Create Columnsdate_col= pd.date_range(start= start_date, periods= df_length, freq= 'H')str_col= [''.join(np.random.choice(all_string, string_length)) for i in range(df_length)]float_col= np.random.rand(df_length)int_col= np.random.randint(min_number,max_number, size = df_length)# Create DataFramedf= pd.DataFrame({'date_col' : date_col, 'str_col' : str_col, 'float_col' : float_col, 'int_col' : int_col})df.info()df.head()

以不同的格式存儲

接下來創(chuàng)建測試函數(shù),以不同的格式進行讀寫。

import time import osdef check_read_write_size(df, file_name, compression= None) :format= file_name.split('.')[-1]# Writebegin= time.time()if file_name.endswith('.csv') : df.to_csv(file_name, index= False, compression= compression)elif file_name.endswith('.parquet') : df.to_parquet(file_name, compression= compression)elif file_name.endswith('.pickle') : df.to_pickle(file_name, compression= compression)elif file_name.endswith('.orc') : df.to_orc(file_name)elif file_name.endswith('.feather') : df.to_feather(file_name)elif file_name.endswith('.h5') : df.to_hdf(file_name, key= 'df')write_time= time.time() - begin# Readbegin= time.time()if file_name.endswith('.csv') : pd.read_csv(file_name, compression= compression)elif file_name.endswith('.parquet') : pd.read_parquet(file_name)elif file_name.endswith('.pickle') : pd.read_pickle(file_name, compression= compression)elif file_name.endswith('.orc') : pd.read_orc(file_name)elif file_name.endswith('.h5') : pd.read_hdf(file_name)read_time= time.time() - begin# File Sizefile_size_mb = os.path.getsize(file_name) / (1024 * 1024)return [format, compression, read_time, write_time, file_size_mb]

然后運行該函數(shù)并將結(jié)果存儲在另一個Pandas Dataframe中。

test_case= [['df.csv','infer'],['df.csv','gzip'],['df.pickle','infer'],['df.pickle','gzip'],['df.parquet','snappy'],['df.parquet','gzip'],['df.orc','default'],['df.feather','default'],['df.h5','default'],]result= []for i in test_case :result.append(check_read_write_size(df, i[0], compression= i[1]))result_df= pd.DataFrame(result, columns= ['format','compression','read_time','write_time','file_size'])result_df

測試結(jié)果

下面的圖表和表格是測試的結(jié)果。

我們對測試的結(jié)果做一個簡單的分析

CSV

  • 未壓縮文件的大小最大
  • 壓縮后的尺寸很小,但不是最小的
  • CSV的讀取速度和寫入速度是最慢的

Pickle

  • 表現(xiàn)得很平均
  • 但壓縮寫入速度是最慢的

Feather

最快的讀寫速度,文件的大小也是中等,非常的平均

ORC

  • 所有格式中最小的
  • 讀寫速度非???,幾乎是最快的

Parquet

總的來說,快速并且非常小,但是并不是最快也不是最小的

總結(jié)

從結(jié)果來看,我們應(yīng)該使用ORC或Feather,而不再使用CSV ?是嗎?

“這取決于你的系統(tǒng)?!?/p>

如果你正在做一些單獨的項目,那么使用最快或最小的格式肯定是有意義的。

但大多數(shù)時候,我們必須與他人合作。所以,除了速度和大小,還有更多的因素。

未壓縮的CSV可能很慢,而且最大,但是當(dāng)需要將數(shù)據(jù)發(fā)送到另一個系統(tǒng)時,它非常容易。

ORC作為傳統(tǒng)的大數(shù)據(jù)處理格式(來自Hive)對于速度的和大小的優(yōu)化是做的最好的,Parquet比ORC更大、更慢,但是它卻是在速度和大小中取得了最佳的平衡,并且支持他的生態(tài)也多,所以在需要處理大文件的時候可以優(yōu)先選擇Parquet。

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
pandas.DataFrame對行和列求和及添加新行和列
pandas 修改 DataFrame 列名
python中判斷一個dataframe非空
Python之Pandas:pandas.DataFrame.to_csv函數(shù)的簡介、具體案例、使用方法詳細(xì)攻略
利用Python實現(xiàn)讀取Word表格計算匯總并寫入Excel
為什么pandas讀取出來的表格 empty dataframe
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服