天天看點

python pandas

v

處理大規模資料集時常是棘手的事情,尤其在記憶體無法完全加載資料的情況下。在資源受限的情況下,可以使用 Python Pandas 提供的一些功能,降低加載資料集的記憶體占用。可用技術包括壓縮、索引和資料分塊。

在上述過程中需要解決一些問題,其中之一就是資料量過大。如果資料量超出本機記憶體的容量,項目執行就會産生問題。

對此有哪些解決方案?

有多種解決資料量過大問題的方法。它們或是消耗時間,或是需要增加投資。

可能的解決方案

 投資解決:新購有能力處理整個資料集,具有更強 CPU 和更大記憶體的計算機。或是去租用雲服務或虛拟記憶體,建立處理工作負載的叢集。

 耗時解決:如果記憶體不足以處理整個資料集,而硬碟的容量要遠大于記憶體,此時可考慮使用硬碟存儲資料。但使用硬碟管理資料會大大降低處理性能,即便是 SSD 也要比記憶體慢很多。

隻要資源允許,這兩種解決方法均可行。如果項目資金充裕,或是不惜任何時間代價,那麼上述兩種方法是最簡單也是最直接的解決方案。

但如果情況并非如此呢?也許你的資金有限,或是資料集過大,從磁盤加載将增加 5~6 倍甚至更多的處理時間。是否有無需額外資金投入或時間開銷的大資料解決方案呢?

這個問題正中我的下懷。

有多種技術可用于大資料處理,它們無需額外付出投資,也不會耗費大量加載的時間。本文将介紹其中三種使用 Pandas 處理大規模資料集的技術。

壓  縮

第一種技術是資料壓縮。壓縮并非指将資料打包為 ZIP 檔案,而是以壓縮格式在記憶體中存儲資料。

換句話說,資料壓縮就是一種使用更少記憶體表示資料的方法。資料壓縮有兩種類型,即無損壓縮和有損壓縮。這兩種類型隻影響資料的加載,不會影響到處理代碼。

無損壓縮

無損壓縮不會對資料造成任何損失,即原始資料和壓縮後的資料在語義上保持不變。執行無損壓縮有三種方式。在下文中,将使用美國按州統計的新冠病毒病例資料集依次介紹。

 加載特定的資料列

例子中所使用的資料集具有如下結構:

import pandas as pd  

data = pd.read_csv("https://raw.githubusercontent.com/nytimes/covid-19-data/master/us-counties.csv")  

data.sample(10) 

​​

python pandas

加載整個資料集需要占用 111MB 記憶體!

python pandas

如果我們隻需要資料集中的兩列,即州名和病例數,那麼為什麼要加載整個資料集呢?加載所需的兩列資料隻需 36MB,可降低記憶體使用 32%。

python pandas

使用 Pandas 加載所需資料列的代碼如下:

python pandas

本節使用的代碼片段如下:

# 加載所需軟體庫 Import needed library  

# 資料集  

csv = "https://raw.githubusercontent.com/nytimes/covid-19-data/master/us-counties.csv"  

# 加載整個資料集  

data = pd.read_csv(csv)  

data.info(verbose=False, memory_usage="deep")  

# 建立資料子集  

df = data[["county", "cases"]]  

df.info(verbose=False, memory_usage="deep")  

# 加速所需的兩列資料  

df_2col = pd.read_csv(csv , usecols=["county", "cases"])  

df_2col.info(verbose=False, memory_usage="deep") 

代碼位址:

​​https://gist.github.com/SaraM92/3ba6cac1801b20f6de1ef3cc4a18c843#file-column_selecting-py​​

 操作資料類型

另一個降低資料記憶體使用量的方法是截取數值項。例如将 CSV 加載到 DataFrame,如果檔案中包含數值,那麼一個數值就需要 64 個位元組存儲。但可通過使用 int 格式截取數值以節省記憶體。

 int8 存儲值的範圍是 -128 到 127;

 int16 存儲值的範圍是 -32768 到 32767;

 int64 存儲值的範圍是 -9223372036854775808 到 9223372036854775807。

python pandas

如果可預先确定數值不大于 32767,那麼就可以使用 int16 或 int32 類型,該列的記憶體占用能降低 75%。

假定每個州的病例數不超過 32767(雖然現實中并非如此),那麼就可截取該列為 int16 類型而非 int64。

python pandas

 稀疏列

如果資料集的一或多個列中具有大量的 NaN 空值,那麼可以使用 稀疏清單示 降低記憶體使用,以免空值耗費記憶體。

假定州名這一列存在一些空值,我們需要跳過所有包含空值的行。該需求可使用 pandas.sparse 輕松實作(譯者注:原文使用 Sparse Series,但在 Pandas 1.0.0 中已經移除了 SparseSeries)。

python pandas

有損壓縮

如果無損壓縮并不滿足需求,還需要進一步壓縮,那麼應該如何做?這時可使用有損壓縮,權衡記憶體占用而犧牲資料百分之百的準确性。

有損壓縮有兩種方式,即修改數值和抽樣。

 修改數值:有時并不需要數值保留全部精度,這時可以将 int64 截取為 int32 甚至是 int16。

 抽樣:如果需要确認某些州的新冠病例數要高于其它州,可以抽樣部分州的資料,檢視哪些州具有更多的病例。這種做法是一種有損壓縮,因為其中并未考慮到所有的資料行。

第二種技術:資料分塊(chunking)

另一個處理大規模資料集的方法是資料分塊。将大規模資料切分為多個小分塊,進而對各個分塊分别處理。在處理完所有分塊後,可以比較結果并給出最終結論。

本文使用的資料集中包含了 1923 行資料。

python pandas

假定我們需要找出具有最多病例的州,那麼可以将資料集切分為每塊 100 行資料,分别處理每個資料塊,從這各個小結果中擷取最大值。

python pandas

本節代碼片段如下:

# 導入所需軟體庫  

# 循環處理每個資料塊,擷取每個資料塊中的最大值 

result = {}  

for chunk in pd.read_csv(csv, chunksize=100):  

max_case = chunk["cases"].max()  

max_case_county = chunk.loc[chunk[ cases ] == max_case,  county ].iloc[0]  

result[max_case_county] = max_case  

# 給出結果 

print(max(result, key=result.get) , result[max(result, key=result.get)]) 

​​https://gist.github.com/SaraM92/808ed30694601e5eada5e283b2275ed7#file-chuncking-py​​

第三種方法:索引

資料分塊非常适用于資料集僅加載一次的情況。但如果需要多次加載資料集,那麼可以使用索引技術。

索引可了解為一本書的目錄。無需讀完整本書就可以擷取所需得資訊。

例如,分塊技術非常适用于擷取指定州的病例數。編寫如下的簡單函數,就能實作這一功能。

python pandas

索引 vs 分塊

分塊需讀取所有資料,而索引隻需讀取部分資料。

上面的函數加載了每個分塊中的所有行,但我們隻關心其中的一個州,這導緻大量的額外開銷。可使用 Pandas 的資料庫操作,例如簡單的做法是使用 SQLite 資料庫。

首先,需要将 DataFrame 加載到 SQLite 資料庫,代碼如下:

import sqlite3 

# 建立新的資料庫檔案  

db = sqlite3.connect("cases.sqlite")  

# 按塊加載 CSV 檔案  

for c in pd.read_csv(csv, chunksize=100): 

# 将所有資料行加載到新的資料庫表中  

c.to_sql("cases", db, if_exists="append")  

# 為“state”列添加索引  

db.execute("CREATE INDEX state ON cases(state)")  

db.close() 

​​https://gist.github.com/SaraM92/5b445d5b56be2d349cdfa988204ff5f3#file-load_into_db-py​​

為使用資料庫,下面需要重寫 get_state_info 函數。

python pandas

這樣可降低記憶體占用 50%。

小  結

處理大規模資料集時常是棘手的事情,尤其在記憶體無法完全加載資料的情況下。一些解決方案或是耗時,或是耗費财力。畢竟增加資源是最簡單直接的解決方案。

但是在資源受限的情況下,可以使用 Pandas 提供的一些功能,降低加載資料集的記憶體占用。其中的可用技術包括壓縮、索引和資料分塊