PyTorch中Tensor与numpy数据之间时共享的条件:

PyTorch中Tensor与numpy数据之间时共享的条件:

我们在接触学习PyTorch,会涉及到Tensor数据类型与numpy数据之间的转换效率之高,在这里是因为他们的数据内存是共享的。但是在实际操作时会发现numpy转Tensor时数据不是一同更新;

from __future__ import print_function

import numpy as np
import torch as t

'''
在实现numpy与Tensor数据互相操作时,数据是共享内存的;
但是我们在复制操作时,数据内存不是共享光的;
'''
a = np.zeros((2,2)).astype('int64')
b = t.Tensor(a) # 此时是复制的操作,不共享数据;
c = t.from_numpy(a)
print('-------a矩阵:——------')
print(a)
print('-------b矩阵:——------')
print(b)
print('-------c矩阵:——------')
print(c)
a[1]=1

print('修改后:')
print('-------a矩阵:——------')
print(a)
print('-------b矩阵:——------')
print(b)
print('-------c矩阵:——------')
print(c)

此时我们可以看出数据b矩阵不变化,而c矩阵随着a矩阵的更新而更新:

image-20200420194656621

原文地址:https://www.cnblogs.com/Zhao159461/p/12740000.html