contiguous:view隻能用在contiguous的variable上。如果在view之前用了transpose, permute等,需要用contiguous()來傳回一個contiguous copy。
一種可能的解釋是:
有些tensor并不是占用一整塊記憶體,而是由不同的資料塊組成,而tensor的
view()
操作依賴于記憶體是整塊的,這時隻需要執行
contiguous()
這個函數,把tensor變成在記憶體中連續分布的形式。
判斷是否contiguous用
torch.Tensor.is_contiguous()
函數。
import torch
x = torch.ones(, )
x.is_contiguous() # True
x.transpose(, ).is_contiguous() # False
x.transpose(, ).contiguous().is_contiguous() # True
在pytorch的最新版本0.4版本中,增加了torch.reshape(), 這與 numpy.reshape 的功能類似。它大緻相當于 tensor.contiguous().view()
https://blog.csdn.net/u011394059/article/details/78664694
https://blog.csdn.net/guotong1988/article/details/78730078
https://blog.csdn.net/u011276025/article/details/73826562
中的Bug3