天天看点

numpy、pytorch、tensorflow 中的矩阵广播机制。---没有概念,三个简单的例子,理解广播机制

在Python中的这几个库、框架中的矩阵计算不同于线性代数中的矩阵计算。

这里不说概念,仅使用几个极其简单的例子进行广播机制的说明。

例如我们使用常见的numpy对两个维数相同的矩阵进行相乘操作。

import numpy as np

x = np.array([[2, 2, 3], [1, 2, 3]])
y = np.array([[1, 1, 3], [2, 2, 4]])
print(x * y)

得到结果:
[[ 2  2  9]
 [ 2  4 12]]      

可以看到 ,就是简单的对位相乘。

在维度不相同的情况下:

arr1 = np.array([[0, 0, 0],[1, 1, 1],[2, 2, 2], [3, 3, 3]])
arr2 = np.array([1, 2, 3])
arr_sum = arr1 + arr2
print(arr_sum)
得到结果:
[[1 2 3]
 [2 3 4]
 [3 4 5]
 [4 5 6]]      

arr1的shape 为 (4,3)

arr2的shape 为(3,)

可以简单看出来,只是将[1,2,3] 这个一维数组扩充了几次,然后和arr1进行相加。

numpy、pytorch、tensorflow 中的矩阵广播机制。---没有概念,三个简单的例子,理解广播机制

第二种维度不同的情况:

arr1 = np.array([[0, 0, 0],[1, 1, 1],[2, 2, 2], [3, 3, 3]])
arr2 = np.array([[1],[2],[3],[4]])

arr_sum = arr1 + arr2
print(arr_sum)

得到结果:
[[1 1 1]
 [3 3 3]
 [5 5 5]
 [7 7 7]]      

arr1的shape 为(4,3)

arr2的shape 为(4,1)

也可以很简单的看出来,arr2进行了简单的扩充。然后和arr1进行相加。只是这种扩充方式和上面的第一个例子有所不同。

numpy、pytorch、tensorflow 中的矩阵广播机制。---没有概念,三个简单的例子,理解广播机制

对于上面两种扩充情况。

继续阅读