作者:小小明
10年編碼經驗,熟悉Java、Python和Scala,非常擅長解決各類複雜資料處理的邏輯,各類結構化與非結構化資料互轉,字元串解析比對等等。
至今已經幫助至少百名資料從業者解決工作中的實際問題,如果你在資料處理上遇到什麼困難,歡迎評論區與我交流。
求每個學生分數最接近的10個學生
需求背景
某MOOC課程網站的老師需要統計每個學生成績最相近的10個學生,距離計算公式是每門課程的成績之差的絕對值求和。
例如,學生1的成績為(83,84,86,99,87),學生2的成績為(83,84,86,99,87)
兩個學生的距離為|83-83|+|84-84|+|86-86|+|99-99|+|87-87|=0則判定為這兩個學生成績距離完全相同,這個距離越大說明兩個學生的成績差異越大。
下面僅使用模拟資料展示。
首先讀取資料:
import pandas as pd
import numpy as np
import heapq
df = pd.read_csv("學生成績.csv", encoding="gbk")
df.head()
結果:
![](https://img.laitimes.com/img/_0nNw4CM6IyYiwiM6ICdiwiI0gTMx81dsQWZ4lmZf1GLlpXazVmcvwFciV2dsQXYtJ3bm9CX9s2RkBnVHFmb1clWvB3MaVnRtp1XlBXe0xCMy81dvRWYoNHLwEzX5xCMx8FesU2cfdGLwMzX0xiRGZkRGZ0Xy9GbvNGLpZTY1EmMZVDUSFTU4VFRR9Fd4VGdsYTMfVmepNHLrJXYtJXZ0F2dvwVZnFWbp1zczV2YvJHctM3cv1Ce-cmbw5iNyMDO3YmMyYDOxgDN2gTMzYzX3MTOycTM3AzLclDMyIDMy8CXn9Gbi9CXzV2Zh1WavwVbvNmLvR3YxUjLyM3Lc9CX6MHc0RHaiojIsJye.png)
這位老師管理的小班,僅100個學生。
采用雙重for循環周遊每個學生與所有學生進行比對計算,也僅1萬次循環的計算量,下面我将周遊每個學生,然後内層循環再周遊每個學生進行笛卡爾積計算,最終計算出每個學生分數最接近的10個學生。
雙重for循環+最小堆解決需求
data = df.values
length = data.shape[0]
names = data[:, 0]
scores = data[:, 1:]
result = []
# 周遊取出每一行的資料
for i in range(length):
# 分别取出目前周遊出來的姓名和成績清單
name, score = names[i], scores[i]
# 用一個最小堆儲存最接近的10學生
min_similar_10 = []
for j in range(length):
if i == j:
# 跳過對自己的比較
continue
# 被比較的學生姓名和成績
find_name, find_scores = names[j], scores[j]
# 計算兩個學生成績的距離
sim_value = np.abs(score-find_scores).sum()
# 将被比較的學生和對應距離儲存到最小堆中
heapq.heappush(min_similar_10, (find_name, sim_value))
# 取出10個距離最小的學生
min_similar_10 = heapq.nsmallest(10, min_similar_10, key=lambda x: x[1])
name_distance_dict = dict(min_similar_10)
name_similars, distances = list(
name_distance_dict.keys()), list(name_distance_dict.values())
result.append((name, name_similars, distances))
result = pd.DataFrame(result, columns=["姓名", "分數最接近的10個學生", "距離"])
result
最終結果:
僅耗時120毫秒以内,說明雙重for循環的算法在100資料量時,可以順利解決這個問題的。
下面簡單介紹一下最小堆:
堆是資料結構中最常見的一種資料結構,是一個完全二叉樹。最小堆中每一個節點的值都小于等于其子樹中每個節點的值。
具體的原理,學過資料結構的讀者都懂,沒有學過的也不用深究。
上面的代碼中使用最小堆的目的是為了避免排序,采用堆化方式查找N個最小值,基于最小堆的查找,時間複雜度在O(logN)~O(N)之間,
遠比排序的時間複雜度O(nlogN)快。
關于heapq的官方文檔:https://docs.python.org/zh-cn/3/library/heapq.html?highlight=heapq#module-heapq
heapq的實作源碼:https://github.com/python/cpython/blob/3.9/Lib/heapq.py
如果你對堆的實作原理感興趣,可以參考資料結構學習筆記:
https://datastructure.xiaoxiaoming.xyz/#/16.%E5%A0%86
好景不長,該MOOC網站的管理者後面又希望把曆史班級所有學生的分數最接近的10個學生都找出來,大概有1W以上的學生。用上面的代碼跑了一下,10分鐘左右也跑出了結果,感覺我的代碼處理效果還不錯。
我自己也測試了一下1萬條測試資料:
df = pd.read_csv("學生成績_10000.csv", encoding="gbk")
data = df.values
length = data.shape[0]
names = data[:, 0]
scores = data[:, 1:]
result = []
# 周遊取出每一行的資料
for i in range(length):
# 分别取出目前周遊出來的姓名和成績清單
name, score = names[i], scores[i]
# 用一個最小堆儲存最接近的10學生
min_similar_10 = []
for j in range(length):
if i == j:
# 跳過對自己的比較
continue
# 被比較的學生姓名和成績
find_name, find_scores = names[j], scores[j]
# 計算兩個學生成績的距離
sim_value = np.abs(score-find_scores).sum()
# 将被比較的學生和對應距離儲存到最小堆中
heapq.heappush(min_similar_10, (find_name, sim_value))
# 取出10個距離最小的學生
min_similar_10 = heapq.nsmallest(10, min_similar_10, key=lambda x: x[1])
name_distance_dict = dict(min_similar_10)
name_similars, distances = list(
name_distance_dict.keys()), list(name_distance_dict.values())
result.append((name, name_similars, distances))
result = pd.DataFrame(result, columns=["姓名", "分數最接近的10個學生", "距離"])
result
結果:
耗時是12.5分鐘。
雖然網站管理者對這個代碼已經滿意,但對于我來說速度還是太慢,要跑這麼大的資料量,代碼還是優化一下比較好,于是我使用numpy向量化操作,使程式在2分鐘内對1萬條資料跑出了結果。下面是處理代碼:
使用numpy向量化操作解決需求
考慮到部分讀者沒有看懂最小堆的操作,這次我将分步拆解下面這套代碼的處理邏輯。
首先對本文開頭的100條資料進行測試,擷取源資料的姓名和分數數組:
import pandas as pd
import numpy as np
import heapq
df = pd.read_csv("學生成績.csv", encoding="gbk")
data = df.values
length = data.shape[0]
names = data[:, 0]
scores = data[:, 1:]
print(names[:5])
print(scores[:5])
結果:
['學生1' '學生2' '學生3' '學生4' '學生5']
[[71 82 81 84 73 95 62 96 96 87 61 78 79 89 98 80]
[57 91 99 74 93 93 58 74 89 84 63 62 78 57 94 74]
[72 59 76 60 99 71 73 74 72 74 85 79 100 88 80 91]
[71 62 81 80 57 84 92 95 63 59 84 64 90 58 60 75]
[83 62 95 76 57 75 97 57 65 63 84 73 74 59 62 93]]
周遊第一次就break結束,取出第一個學生用于測試:
for i in range(length):
name, score = names[i], scores[i]
print(name, score)
break
結果:
學生1 [77 89 60 99 83 80 95 93 94 82 92 93 96 98 70 84]
利用numpy廣播變量的特性一次性求出該學生與所有學生(含自己)的距離:
score_diff = np.abs(scores-score).sum(axis=1)
score_diff
結果:
array([0, 322, 248, 203, 215, 366, 198, 224, 299, 229, 274, 240, 253, 238,
183, 239, 223, 344, 320, 221, 291, 264, 273, 309, 307, 243, 258,
231, 225, 185, 234, 324, 315, 247, 247, 232, 179, 210, 238, 261,
175, 252, 259, 254, 330, 270, 193, 248, 252, 214, 175, 219, 262,
256, 265, 249, 263, 180, 270, 294, 260, 195, 272, 240, 213, 181,
252, 292, 261, 233, 238, 205, 237, 241, 244, 234, 255, 151, 228,
241, 173, 174, 221, 248, 191, 249, 243, 224, 252, 266, 229, 231,
228, 346, 232, 273, 269, 336, 294, 277], dtype=object)
由于上面的距離包含自身,是以先取出距離最短的11個學生的索引,再删除自身的索引:
min_similar_index = np.argpartition(score_diff, 11)[:11].tolist()
min_similar_index.remove(i)
min_similar_index
結果:
[77, 80, 81, 40, 50, 36, 57, 65, 14, 29]
根據這10個學生的索引讀取所需要的資料:
name_similars = names[min_similar_index]
distances = score_diff[min_similar_index]
print(name_similars)
print(distances)
結果:
['學生78' '學生81' '學生82' '學生41' '學生51' '學生37' '學生58' '學生66' '學生15' '學生30']
[151 173 174 175 175 179 180 181 183 185]
這樣我們就已經計算出該學生成績最接近的10個學生的姓名和距離。
然後整理一下完整處理代碼:
import pandas as pd
import numpy as np
import heapq
df = pd.read_csv("學生成績.csv", encoding="gbk")
data = df.values
length = data.shape[0]
names = data[:, 0]
scores = data[:, 1:]
result = []
for i in range(length):
name, score = names[i], scores[i]
score_diff = np.abs(scores-score).sum(axis=1)
min_similar_index = np.argpartition(score_diff, 11)[:11].tolist()
min_similar_index.remove(i)
name_similars = names[min_similar_index]
distances = score_diff[min_similar_index]
result.append((name, name_similars, distances))
result = pd.DataFrame(result, columns=["姓名", "分數最接近的10個學生", "距離"])
result
結果:
下面再針對一萬條資料跑一跑:
df = pd.read_csv("學生成績_10000.csv", encoding="gbk")
data = df.values
length = data.shape[0]
names = data[:, 0]
scores = data[:, 1:]
result = []
for i in range(length):
name, score = names[i], scores[i]
score_diff = np.abs(scores-score).sum(axis=1)
min_similar_index = np.argpartition(score_diff, 11)[:11].tolist()
min_similar_index.remove(i)
name_similars = names[min_similar_index]
distances = score_diff[min_similar_index]
result.append((name, name_similars, distances))
result = pd.DataFrame(result, columns=["姓名", "分數最接近的10個學生", "距離"])
result
結果:
可以看到耗時為1分48秒,相對直接使用笛卡爾積快了很多倍。
使用ball_tree解決需求
雖然上面的優化已經大幅度提升了程式性能,但畢竟仍然需要雙重周遊O(n^2)時間複雜度的方法。萬一哪天網站要求對10萬個學生進行計算呢?時間又要多翻了幾十倍,耗時要達到好幾個小時。我轉而一想直接用KNN内部的ball_tree來解決這個問題吧。
先使用10000條學生成績的資料進行測試,讀取這10000條學生成績資料:
df = pd.read_csv("學生成績_10000.csv", encoding="gbk")
df
結果:
然後取出需要被訓練的資料:
# 取出用于被KNN訓練的資料
data = df.iloc[:, 1:].values
# y本身用于标注每條資料屬于哪個類别,但我們并不使用KNN的分類功能,是以統一全部标注為類别0
y = np.zeros(data.shape[0], dtype='int8')
print(data[:5])
print(y[:5])
結果:
[[ 77 89 60 99 83 80 95 93 94 82 92 93 96 98 70 84]
[ 90 63 72 57 100 85 63 62 67 77 82 68 81 79 100 71]
[ 71 71 82 72 62 70 82 63 92 69 97 97 82 69 63 57]
[ 88 78 88 61 72 61 77 93 94 88 86 95 84 70 73 94]
[ 66 67 59 70 75 67 79 74 57 84 96 67 93 87 58 83]]
[0 0 0 0 0]
建立KNN訓練器,并進行訓練:
from sklearn.neighbors import KNeighborsClassifier
knn = KNeighborsClassifier(n_neighbors=1, algorithm='ball_tree', p=1)
knn.fit(data, y)
distance, similar_points = knn.kneighbors(
data, n_neighbors=11, return_distance=True)
distance = distance.astype("int", copy=False)
print(distance[:5])
print(similar_points[:5])
結果:
訓練耗時為3.4秒。
n_neighbors是KNN用來分類的參數,我們并不使用分類,将其指定的越小,越能減少無用的計算量,但是這個參數必須比0大,是以我指定為1。
而需求方要求的距離計算公式顯然就等價于曼哈頓距離,是以我将p指定為1。
knn.kneighbors則用來計算最近的點,n_neighbors指定為11是因為結果會包含自身,後面去除自身後結果是10。
由于sklearn最終計算出來的距離是float浮點數類型,而這個需求隻可能産生整數距離,是以将其轉換為整數。
上面訓練完就相當于已經計算出了結果,下面我再将結果整理成需要的格式:
names = df['姓名']
result = []
for i, name in names.iteritems():
name_similar_indexs = similar_points[i].tolist()
self_index = name_similar_indexs.index(i)
name_similar_indexs.pop(self_index)
name_similars = names[name_similar_indexs].tolist()
distances = distance[i].tolist()
distances.pop(self_index)
result.append((name, name_similars, distances))
result = pd.DataFrame(result, columns=["姓名", "分數最接近的10個學生", "距離"])
result
結果:
對于10000條資料ball_tree的計算總耗時為5秒左右。可見相對于前面的雙重周遊的方法速度已經提高了N倍。
關于KD-tree算法和Ball-tree算法的原理可參考:
https://www.zhihu.com/question/30957691
對4萬條學生模拟資料進行測試
為了測試友善,不再用excel來生成資料,而是直接使用python。
python直接生成測試資料的方法,以生成10條資料為例:
size = 100000
data = np.c_[np.arange(1, size+1).reshape((-1, 1)),
np.random.randint(56, 101, size=(size, 16))]
df = pd.DataFrame(data, columns=["姓名", "Python", "C/C++", "Java", "Scala", "資料結構", "離散數學",
"計算機體系結構", "編譯原理", "計算機網絡", "資料庫原理", "計算機圖形學",
"自然語言處理", "嵌入式系統及應用", "網絡資訊與安全", "計算機視覺", "人工智能"])
df["姓名"] = "學生"+df["姓名"].astype(str)
df
結果:
然後使用上面相同的代碼分别測試1w條、2w條、3w條、…、10w條:
1萬條耗時5.3秒。
2萬條耗時15.8秒。
3萬條耗時32.3秒。
4萬條耗時60.75秒。
預估10萬條資料的耗時
這時間增長趨勢好像也不是線性增長而是指數增長,下面先就記錄一下多少條記錄時耗時多久吧:
import pandas as pd
import numpy as np
import time
from sklearn.neighbors import KNeighborsClassifier
times = {}
for size in np.r_[np.arange(1000, 10001, 1000), np.arange(20000, 60001, 10000)]:
data = np.c_[np.arange(1, size+1).reshape((-1, 1)),
np.random.randint(56, 101, size=(size, 16))]
df = pd.DataFrame(data, columns=["姓名", "Python", "C/C++", "Java", "Scala", "資料結構", "離散數學",
"計算機體系結構", "編譯原理", "計算機網絡", "資料庫原理", "計算機圖形學",
"自然語言處理", "嵌入式系統及應用", "網絡資訊與安全", "計算機視覺", "人工智能"])
df["姓名"] = "學生"+df["姓名"].astype(str)
start_time = time.perf_counter()
# 取出用于被KNN訓練的資料
data = df.iloc[:, 1:].values
# y本身用于标注每條資料屬于哪個類别,但我并不使用KNN的分類功能,是以統一全部标注為類别0
y = np.zeros(data.shape[0], dtype='int8')
knn = KNeighborsClassifier(n_neighbors=1, algorithm='ball_tree', p=1)
knn.fit(data, y)
distance, similar_points = knn.kneighbors(
data, n_neighbors=11, return_distance=True)
distance = distance.astype("int", copy=False)
names = df['姓名']
result = []
for i, name in names.iteritems():
name_similar_indexs = similar_points[i].tolist()
self_index = name_similar_indexs.index(i)
name_similar_indexs.pop(self_index)
name_similars = names[name_similar_indexs].tolist()
distances = distance[i].tolist()
distances.pop(self_index)
result.append((name, name_similars, distances))
result = pd.DataFrame(result, columns=["姓名", "分數最接近的10個學生", "距離"])
take_time = time.perf_counter()-start_time
print(f"{size}條資料耗時{take_time:.2f}秒")
times[size] = take_time
time_df = pd.DataFrame.from_dict(times, orient='index', columns=["time"])
結果:
1000條資料耗時0.29秒
2000條資料耗時0.59秒
3000條資料耗時0.98秒
4000條資料耗時1.40秒
5000條資料耗時1.97秒
6000條資料耗時2.44秒
7000條資料耗時3.00秒
8000條資料耗時3.74秒
9000條資料耗時4.41秒
10000條資料耗時5.23秒
20000條資料耗時15.92秒
30000條資料耗時31.75秒
40000條資料耗時64.25秒
50000條資料耗時132.26秒
60000條資料耗時220.87秒
從這走勢來看有點像二次函數或幂次函數,我們假設這是一個二次函數然後使用numpy拟合這條曲線,并預估10萬資料的耗時:
from numpy import polyfit, poly1d
import matplotlib.pyplot as plt
%matplotlib inline
x = np.arange(1000, 100001, 1000)
y = poly1d(polyfit(time_df.index, time_df.time, 2))
plt.figure(figsize=(10, 6))
plt.plot(time_df.index, time_df.time, 'rx')
plt.plot(x, y(x), 'b:')
plt.show()
print(f"10萬條資料預計耗時{y(100000):.2f}秒")
結果:
預計耗時11分鐘。
不過實際測試了一下,12分鐘也并沒有出結果,說明曲線拟合的效果還不是太準。
認真觀察原始資料(紅色點)和拟合曲線(藍色線),可能這個曲線實際并不是二次函數,而是三次以上的函數或幂次函數,下面使用3次函數進行拟合:
from numpy import polyfit, poly1d
import matplotlib.pyplot as plt
%matplotlib inline
x = np.arange(1000, 100001, 1000)
y = poly1d(polyfit(time_df.index, time_df.time, 3))
plt.figure(figsize=(10, 6))
plt.plot(time_df.index, time_df.time, 'rx')
plt.plot(x, y(x), 'b:')
plt.show()
print(f"10萬條資料預計耗時{y(100000):.2f}秒")
結果:
預估耗時為17分鐘。
實際耗時呢?
import pandas as pd
import numpy as np
from sklearn.neighbors import KNeighborsClassifier
size = 100000
data = np.c_[np.arange(1, size+1).reshape((-1, 1)),
np.random.randint(56, 101, size=(size, 16))]
df = pd.DataFrame(data, columns=["姓名", "Python", "C/C++", "Java", "Scala", "資料結構", "離散數學",
"計算機體系結構", "編譯原理", "計算機網絡", "資料庫原理", "計算機圖形學",
"自然語言處理", "嵌入式系統及應用", "網絡資訊與安全", "計算機視覺", "人工智能"])
df["姓名"] = "學生"+df["姓名"].astype(str)
# 取出用于被KNN訓練的資料
data = df.iloc[:, 1:].values
# y本身用于标注每條資料屬于哪個類别,但我并不使用KNN的分類功能,是以統一全部标注為類别0
y = np.zeros(data.shape[0], dtype='int8')
knn = KNeighborsClassifier(n_neighbors=1, algorithm='ball_tree', p=1)
knn.fit(data, y)
distance, similar_points = knn.kneighbors(
data, n_neighbors=11, return_distance=True)
distance = distance.astype("int", copy=False)
names = df['姓名']
結果:
訓練耗時13分鐘。
from tqdm.notebook import tqdm
result = []
pbar = tqdm(total=size)
for i, name in names.items():
pbar.update(1)
name_similar_indexs = similar_points[i].tolist()
self_index = name_similar_indexs.index(i)
name_similar_indexs.pop(self_index)
name_similars = names[name_similar_indexs].tolist()
distances = distance[i].tolist()
distances.pop(self_index)
result.append((name, name_similars, distances))
pbar.close()
result = pd.DataFrame(result, columns=["姓名", "分數最接近的10個學生", "距離"])
result
整理結果耗時半分鐘,實際耗時是14分鐘。
雖然14分鐘也比較慢,但相對前面的笛卡爾積的算法需要耗時好幾小時而言已經大幅度提升程式計算性能,節約了計算時間。
總結
今天我向你示範了如何使用最小堆和numpy來快速計算每個學生分數最接近的10個學生,可以看到在資料量小于一萬時,這種笛卡爾積的算法還可以接受,但一旦達到2萬以上,基本上就慢的難以忍受了。是以我使用ball_tree來計算這個距離,1W資料量僅耗時5秒。
但是當資料量達到5萬以上時,ball_tree也有點慢了,但也相對笛卡爾積的算法還是快了很多。