天天看點

numpy、pytorch、tensorflow 中的矩陣廣播機制。---沒有概念,三個簡單的例子,了解廣播機制

在Python中的這幾個庫、架構中的矩陣計算不同于線性代數中的矩陣計算。

這裡不說概念,僅使用幾個極其簡單的例子進行廣播機制的說明。

例如我們使用常見的numpy對兩個維數相同的矩陣進行相乘操作。

import numpy as np

x = np.array([[2, 2, 3], [1, 2, 3]])
y = np.array([[1, 1, 3], [2, 2, 4]])
print(x * y)

得到結果:
[[ 2  2  9]
 [ 2  4 12]]      

可以看到 ,就是簡單的對位相乘。

在次元不相同的情況下:

arr1 = np.array([[0, 0, 0],[1, 1, 1],[2, 2, 2], [3, 3, 3]])
arr2 = np.array([1, 2, 3])
arr_sum = arr1 + arr2
print(arr_sum)
得到結果:
[[1 2 3]
 [2 3 4]
 [3 4 5]
 [4 5 6]]      

arr1的shape 為 (4,3)

arr2的shape 為(3,)

可以簡單看出來,隻是将[1,2,3] 這個一維數組擴充了幾次,然後和arr1進行相加。

numpy、pytorch、tensorflow 中的矩陣廣播機制。---沒有概念,三個簡單的例子,了解廣播機制

第二種次元不同的情況:

arr1 = np.array([[0, 0, 0],[1, 1, 1],[2, 2, 2], [3, 3, 3]])
arr2 = np.array([[1],[2],[3],[4]])

arr_sum = arr1 + arr2
print(arr_sum)

得到結果:
[[1 1 1]
 [3 3 3]
 [5 5 5]
 [7 7 7]]      

arr1的shape 為(4,3)

arr2的shape 為(4,1)

也可以很簡單的看出來,arr2進行了簡單的擴充。然後和arr1進行相加。隻是這種擴充方式和上面的第一個例子有所不同。

numpy、pytorch、tensorflow 中的矩陣廣播機制。---沒有概念,三個簡單的例子,了解廣播機制

對于上面兩種擴充情況。

繼續閱讀