- tensor的基本操作 【PyTorch系例】torch.Tensor详解和常用操作
这里最重要的概念是索引出来的结果与原数据共享内存,也即修改一个,另一个也会跟着修改。 - tensor的广播机制 Pytorch:Tensor数组运算中的Broadcasting【广播机制】
这里最重要的概念是只有存在1维的张量才可以进行广播,并且维度是从后往前开始。 - tensor的索引 Pytorch:浅探Tensor的各种索引形式
这里最重要的概念是tensor的下标是从0开始,并且使用[a:b],选用的是大于等于a,但是小于b之间的数据。
其次自己补充一下,请看如下代码:
>>>import torch
>>>a = torch.tensor([[[1, 2], [3, 4]], [[5, 6], [7, 8]]])
>>> print(a.size())
torch.Size([2, 2, 2])
>>> print(a)
tensor([[[1, 2],
[3, 4]],
[[5, 6],
[7, 8]]])
>>> b = a[:,:,1]
>>> print(b)
tensor([[2, 4],
[6, 8]])
>>> b = a[:,:,0:1]
>>> print(b)
tensor([[[1],
[3]],
[[5],
[7]]])
>>> b = a[:,1,:]
>>> print(b)
tensor([[3, 4],
[7, 8]])
如果a的维度是(2,2,2), 如果b=a[:, :, 1],此时b的维度是(2, 2);如果b=a[:, :, 0:1],此时b的维度是(2, 2, 1);可以看出来如果某一个维度是一个确切的一维数字,那么该维度就会消失。
- torch的函数dim理解 pytorch中tf.nn.functional.softmax(x,dim = -1)对参数dim的理解
这里最重要的概念是dim的大小对应维度,如0代表第一维,1代表第二维…
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)