天天看點

讓資料分析更便捷快速,了解這12種Numpy和Pandas函數

作者:Kunal Dhariwal

機器之心編譯

我們都知道,Numpy 是 Python 環境下的擴充程式庫,支援大量的次元數組和矩陣運算;Pandas 也是 Python 環境下的資料操作和分析軟體包,以及強大的資料分析庫。二者在日常的資料分析中都發揮着重要作用,如果沒有 Numpy 和 Pandas 的支援,資料分析将變得異常困難。但有時我們需要加快資料分析的速度,有什麼辦法可以幫助到我們嗎?

在本文中,資料和分析工程師 Kunal Dhariwal 為我們介紹了 12 種 Numpy 和 Pandas 函數,這些高效的函數會令資料分析更為容易、便捷。最後,讀者也可以在 GitHub 項目中找到本文所用代碼的 Jupyter Notebook。

讓資料分析更便捷快速,了解這12種Numpy和Pandas函數

項目位址:https://github.com/kunaldhariwal/12-Amazing-Pandas-NumPy-Functions

Numpy 的 6 種高效函數

首先從 Numpy 開始。Numpy 是用于科學計算的 Python 語言擴充包,通常包含強大的 N 維數組對象、複雜函數、用于整合 C/C++和 Fortran 代碼的工具以及有用的線性代數、傅裡葉變換和随機數生成能力。

除了上面這些明顯的用途,Numpy 還可以用作通用資料的高效多元容器(container),定義任何資料類型。這使得 Numpy 能夠實作自身與各種資料庫的無縫、快速內建。

讓資料分析更便捷快速,了解這12種Numpy和Pandas函數

接下來一一解析 6 種 Numpy 函數。

argpartition()

借助于 argpartition(),Numpy 可以找出 N 個最大數值的索引,也會将找到的這些索引輸出。然後我們根據需要對數值進行排序。

x = np.array([12, 10, 12, 0, 6, 8, 9, 1, 16, 4, 6, 0])index_val = np.argpartition(x, -4)[-4:]
index_val
array([1, 8, 2, 0], dtype=int64)np.sort(x[index_val])
array([10, 12, 12, 16])      

allclose()

allclose() 用于比對兩個數組,并得到布爾值表示的輸出。如果在一個公差範圍内(within a tolerance)兩個數組不等同,則 allclose() 傳回 False。該函數對于檢查兩個數組是否相似非常有用。

array1 = np.array([0.12,0.17,0.24,0.29])
array2 = np.array([0.13,0.19,0.26,0.31])# with a tolerance of 0.1, it should return False:
np.allclose(array1,array2,0.1)
False# with a tolerance of 0.2, it should return True:
np.allclose(array1,array2,0.2)
True      

clip()

Clip() 使得一個數組中的數值保持在一個區間内。有時,我們需要保證數值在上下限範圍内。為此,我們可以借助 Numpy 的 clip() 函數實作該目的。給定一個區間,則區間外的數值被剪切至區間上下限(interval edge)。

x = np.array([3, 17, 14, 23, 2, 2, 6, 8, 1, 2, 16, 0])np.clip(x,2,5)
array([3, 5, 5, 5, 2, 2, 5, 5, 2, 2, 5, 2])      

extract()

顧名思義,extract() 是在特定條件下從一個數組中提取特定元素。借助于 extract(),我們還可以使用 and 和 or 等條件。

# Random integers
array = np.random.randint(20, size=12)
array
array([ 0,  1,  8, 19, 16, 18, 10, 11,  2, 13, 14,  3])#  Divide by 2 and check if remainder is 1
cond = np.mod(array, 2)==1
cond
array([False,  True, False,  True, False, False, False,  True, False, True, False,  True])# Use extract to get the values
np.extract(cond, array)
array([ 1, 19, 11, 13,  3])# Apply condition on extract directly
np.extract(((array < 3) | (array > 15)), array)
array([ 0,  1, 19, 16, 18,  2])      

where()

Where() 用于從一個數組中傳回滿足特定條件的元素。比如,它會傳回滿足特定條件的數值的索引位置。Where() 與 SQL 中使用的 where condition 類似,如以下示例所示:

y = np.array([1,5,6,8,1,7,3,6,9])# Where y is greater than 5, returns index position
np.where(y>5)
array([2, 3, 5, 7, 8], dtype=int64),)# First will replace the values that match the condition, 
# second will replace the values that does not
np.where(y>5, "Hit", "Miss")
array(['Miss', 'Miss', 'Hit', 'Hit', 'Miss', 'Hit', 'Miss', 'Hit', 'Hit'],dtype='<U4')      

percentile()

Percentile() 用于計算特定軸方向上數組元素的第 n 個百分位數。

a = np.array([1,5,6,8,1,7,3,6,9])print("50th Percentile of a, axis = 0 : ",  
      np.percentile(a, 50, axis =0))
50th Percentile of a, axis = 0 :  6.0b = np.array([[10, 7, 4], [3, 2, 1]])print("30th Percentile of b, axis = 0 : ",  
      np.percentile(b, 30, axis =0))
30th Percentile of b, axis = 0 :  [5.1 3.5 1.9]      

這就是 Numpy 擴充包的 6 種高效函數,相信會為你帶來幫助。接下來看一看 Pandas 資料分析庫的 6 種函數。

Pandas 資料統計包的 6 種高效函數

Pandas 也是一個 Python 包,它提供了快速、靈活以及具有顯著表達能力的資料結構,旨在使處理結構化 (表格化、多元、異構) 和時間序列資料變得既簡單又直覺。

讓資料分析更便捷快速,了解這12種Numpy和Pandas函數

Pandas 适用于以下各類資料:

  • 具有異構類型列的表格資料,如 SQL 表或 Excel 表;
  • 有序和無序 (不一定是固定頻率) 的時間序列資料;
  • 帶有行/列标簽的任意矩陣資料(同構類型或者是異構類型);
  • 其他任意形式的統計資料集。事實上,資料根本不需要标記就可以放入 Pandas 結構中。

Pandas 擅長處理的類型如下所示:

  • 容易處理浮點資料和非浮點資料中的 缺失資料(用 NaN 表示);
  • 大小可調整性: 可以從 DataFrame 或者更高次元的對象中插入或者是删除列;
  • 顯式資料可自動對齊: 對象可以顯式地對齊至一組标簽内,或者使用者可以簡單地選擇忽略标簽,使 Series、 DataFrame 等自動對齊資料;
  • 靈活的分組功能,對資料集執行拆分-應用-合并等操作,對資料進行聚合和轉換;
  • 簡化将資料轉換為 DataFrame 對象的過程,而這些資料基本是 Python 和 NumPy 資料結構中不規則、不同索引的資料;
  • 基于标簽的智能切片、索引以及面向大型資料集的子設定;
  • 更加直覺地合并以及連接配接資料集;
  • 更加靈活地重塑、轉置(pivot)資料集;
  • 軸的分級标記 (可能包含多個标記);
  • 具有魯棒性的 IO 工具,用于從平面檔案 (CSV 和 delimited)、 Excel 檔案、資料庫中加在資料,以及從 HDF5 格式中儲存 / 加載資料;
  • 時間序列的特定功能: 資料範圍的生成以及頻率轉換、移動視窗統計、資料移動和滞後等。

read_csv(nrows=n)

大多數人都會犯的一個錯誤是,在不需要.csv 檔案的情況下仍會完整地讀取它。如果一個未知的.csv 檔案有 10GB,那麼讀取整個.csv 檔案将會非常不明智,不僅要占用大量記憶體,還會花很多時間。我們需要做的隻是從.csv 檔案中導入幾行,之後根據需要繼續導入。

import io
import requests# I am using this online data set just to make things easier for you guys
url = "https://raw.github.com/vincentarelbundock/Rdatasets/master/csv/datasets/AirPassengers.csv"
s = requests.get(url).content# read only first 10 rows
df = pd.read_csv(io.StringIO(s.decode('utf-8')),nrows=10 , index_col=0)      

map()

map( ) 函數根據相應的輸入來映射 Series 的值。用于将一個 Series 中的每個值替換為另一個值,該值可能來自一個函數、也可能來自于一個 dict 或 Series。

# create a dataframe
dframe = pd.DataFrame(np.random.randn(4, 3), columns=list('bde'), index=['India', 'USA', 'China', 'Russia'])#compute a formatted string from each floating point value in frame
changefn = lambda x: '%.2f' % x# Make changes element-wise
dframe['d'].map(changefn)      

apply()

apply() 允許使用者傳遞函數,并将其應用于 Pandas 序列中的每個值。

# max minus mix lambda fn
fn = lambda x: x.max() - x.min()# Apply this on dframe that we've just created above
dframe.apply(fn)      

isin()

lsin () 用于過濾資料幀。Isin () 有助于選擇特定列中具有特定(或多個)值的行。

# Using the dataframe we created for read_csv
filter1 = df["value"].isin([112]) 
filter2 = df["time"].isin([1949.000000])df [filter1 & filter2]      

copy()

Copy () 函數用于複制 Pandas 對象。當一個資料幀配置設定給另一個資料幀時,如果對其中一個資料幀進行更改,另一個資料幀的值也将發生更改。為了防止這類問題,可以使用 copy () 函數。

# creating sample series 
data = pd.Series(['India', 'Pakistan', 'China', 'Mongolia'])# Assigning issue that we face
data1= data
# Change a value
data1[0]='USA'
# Also changes value in old dataframe
data# To prevent that, we use
# creating copy of series 
new = data.copy()# assigning new values 
new[1]='Changed value'# printing data 
print(new) 
print(data)      

select_dtypes()

select_dtypes() 的作用是,基于 dtypes 的列傳回資料幀列的一個子集。這個函數的參數可設定為包含所有擁有特定資料類型的列,亦或者設定為排除具有特定資料類型的列。

# We'll use the same dataframe that we used for read_csv
framex =  df.select_dtypes(include="float64")# Returns only time column      

最後,pivot_table( ) 也是 Pandas 中一個非常有用的函數。如果對 pivot_table( ) 在 excel 中的使用有所了解,那麼就非常容易上手了。

# Create a sample dataframe
school = pd.DataFrame({'A': ['Jay', 'Usher', 'Nicky', 'Romero', 'Will'], 
      'B': ['Masters', 'Graduate', 'Graduate', 'Masters', 'Graduate'], 
      'C': [26, 22, 20, 23, 24]})# Lets create a pivot table to segregate students based on age and course
table = pd.pivot_table(school, values ='A', index =['B', 'C'], 
                         columns =['B'], aggfunc = np.sum, fill_value="Not Available") 

table