天天看點

pytorch中contiguous()

contiguous:view隻能用在contiguous的variable上。如果在view之前用了transpose, permute等,需要用contiguous()來傳回一個contiguous copy。

一種可能的解釋是:

有些tensor并不是占用一整塊記憶體,而是由不同的資料塊組成,而tensor的

view()

操作依賴于記憶體是整塊的,這時隻需要執行

contiguous()

這個函數,把tensor變成在記憶體中連續分布的形式。

判斷是否contiguous用

torch.Tensor.is_contiguous()

函數。

import torch
x = torch.ones(, )
x.is_contiguous()  # True
x.transpose(, ).is_contiguous()  # False
x.transpose(, ).contiguous().is_contiguous()  # True
           

在pytorch的最新版本0.4版本中,增加了torch.reshape(), 這與 numpy.reshape 的功能類似。它大緻相當于 tensor.contiguous().view()

https://blog.csdn.net/u011394059/article/details/78664694

https://blog.csdn.net/guotong1988/article/details/78730078

https://blog.csdn.net/u011276025/article/details/73826562

中的Bug3

繼續閱讀