什么是广播运算
广播发生的场景很广泛,tensor加法、乘法等都适用广播语义。广播的意思就是,在某些条件下,两个形状不同的tensor仍可以完成运算。
广播的条件
两个tensor可以相互广播的条件是:
1 每一个tensor至少有一个维度(torch.empty((0,))就是一个没有维度的tensor,见下面的例子)
2 从最后一个维度(下面解释何为最后一个维度)开始,逐一比较两个tensor的各个维度,这两个被比较的维度,要么相等,要么有一个是1,要么有一个不存在。
何为最后一个维度?看下面的例子
X 是一个2行3列的tensor。从它最外面那一层[]括号来看,里面有2个元素:
[1,2,3]和[4,5,6]
所以,X的“首维度”就是从[1,2,3],[4,5,6]--->这个方向
再往里一层,是1,2,3的数列,也可以说是4,5,6的数列。这就是X的下一个维度。由于X只有两个维度,所以1,2,3(4,5,6)数列的维度就是x的尾维度,或者说是最后一个维度。
由于x.shape=([2,3]),可见,有两个元素的维度([1,2,3],[4,5,6]这个维度)排在左边,有3个元素的维度(1,2,3(或者说,4,5,6)这个维度)排在右面。故,“首维度”排在shape的最左边,“尾维度”排在最右边
示例
示例1
准备两个tensor
X形状是5,7,3所有元素都是0
Y形状是5,7,3 所有元素都是1
运算结果:
可见,add_操作后,x的每个元素都加1.
示例2
X没有维度,Y是2行2列
可见,两者不能相加
示例3 补1
X是一个3x2x2的tensor,而y是一个只有两个元素的矢量。
这时有人会有疑问:x的维度有俩个“2”,y的“2”应该对应哪一个?
根据官网Broadcasting semantics — PyTorch 2.2 documentation的说法“If the number of dimensions of x and y are not equal, prepend 1 to the dimensions of the tensor with fewer dimensions to make them equal length.”---把1插在维度较少的tensor的前面。说明pytorch是尽量保持尾部维度对齐的,也就是下面的对齐:
3 2 2 x
2 y
然后在y的前面插1:
3 2 2
1 1 2
y前面的维度补了两个“1”,每一次补1,y的外面加一层[]。所以补两个1之后,y变成[ [ [20,30] ] ]
对齐后,沿着第一维度计算:
将x视为一个3元矢量,矢量的每一个元素是一个2x2 tensor;将y视为一个1元矢量,矢量唯一的元素是一个1x2的tensor[[20,30]]。接下来,让这个3元矢量的每一个元素与这个1x2的tensor相加。
把这个2x2的tensor再看成一个二元矢量,每个元素又都是一个2元矢量。而把1x2的tensor看成只有一个元素的矢量,且元素本身又是一个2元矢量[20,30]。于是2x2的tensor加1x2的tensor又可以分解成两个二元矢量分别加一个二元矢量[20,30]。举例看[[1,2], [3,4]] + [20,30],就是[1,2] + [20,30] 和[3,4] + [20,30].
重复上述操作给[[5,6],[7,8]]和[[9,10],[11,12]],所以就有了最后的结果:x的每一个元素都加上了[20,30]
示例4 原位运算
所谓原位运算,指的是运算返回值保存在某一个输入变量中,而不是保存在新的变量里。在Karpathy的视频教程中提到,P /= … 就是一个原位运算。示例2的add_操作也是一个原位运算。
如下图所示,x.add_(y)成立,但是y.add_(x)不成立:
原因是,x与y相加时,x的维度不需要变化,而y的规模要变化,才能适配x的形状。由于x.add_(y)的结果保存在x,而不是y中,所以y的形状变化是暂时的,运算结束后,就回到原状态。但是反过来则不行:y.add_(x)导致结果保存在y中,导致运算后y的规模和运算前不同,这是不允许的。
示例5 参与广播运算的两个tensor,必须是从右向左对齐
这个例子说明参与广播运算的两个tensor,必须是从右对齐:
从上面的例子x+y失败,可以看出,虽然y(5x2的tensor)可以在最右边补一个1,变为5x2x1,适配x的规模5x2x4,但是广播语义要求参与运算的两个tensor首先把最右边的维度对齐,然后再补充维度。所以x的最右边维度4是无法匹配y的最右边维度2的,故失败。
总结规律
两个tensor可以做广播运算的条件:
1 两个tensor都至少有一个维度;
2 两个tensor的维度个数要么完全一样,那个维度较少的tensor可以把自己缺少的维度补充为1;
3 补齐可以补充多个维度,但是只能发生在所有已有维度的左边,不能插在已有维度之间,也不能出现在已有维度右边。
4 假如运算是原位运算,则保存运算结果的变量的尺寸不应在运算前后发生变化。
两个可以互相广播的tensor运算的步骤:
1 假如两者维度个数、对应维度的尺寸都相同,则直接对应元素做运算,得出结果即可
2 假如两者维度不同,则
2.1 首先让两个变量的最右边维度对齐
2.2 维度较少的那个变量的左边必然缺少维度,缺少几个,就从最左边开始补几个1
2.3 从最左边开始运算(即是说,先处理x1,y1这一对)。变量x = [x1, x2, x3, … xn]和变量y = [y1, y2, y3,….yn]。把[x2,x3,x4…xn]看作一个元素,把[y2,y3,y4,…yn]看作一个元素。这样,x就被看作是一个含有x1个元素的矢量,y被看作是有y1个元素的矢量。根据前面的描述,不难发现,x1与y1要么相等,要么有一个是1.
2.4 假如x1==y1,则只要把各自对应元素相加即可。每个对应元素又是一个[x2,x3,x4...xn]和[y2,3,y4,..yn],于是计算[x2,x3,x4...xn]+ [y2,3,y4,..yn]。如果对应元素可以直接相加,就返回结果,否则回到2.3
2.5 假如x1!=y1,那么其中必有一个是1。比如说y1==1。那么x+y可以看成是一个x1维矢量加一个标量。矢量加标量,只要把标量加到矢量的每一个元素即可。矢量的每个元素都是一个[x2,x3,x4….xn],标量是y1这个维度的元素(y1既然等于1,就只有一个元素)。这两者的加法又回到2.3
重复以上步骤,直到最后的维度(也就是最右边的维度)。
例子:
X = [ [[1,2,3],[4,5,6]], [[1,1,1],[2,2,2]], [[3,3,3],[4,4,4]] ]
Y = [10,20,30]
根据步骤2.1与2.2,y要补齐为一个1x1x3的tensor。补齐后:
Y = [[[10,20,30]]]
除了最里面的维度以外,外面的维度都是1.
根据第2.3步,从最左边运算,所以x被视为一个三元矢量:
而Y只有一个元素:[[10,20,30]]。所以这个元素要跟上面三者分别做加法。
来看[[1,2,3],[4,5,6]] + [[10,20,30]]
显然,第一个加数又是一个二元矢量,所以回到步骤2.3
Y只有一个元素[10,20,30]。所以用[10,20,30]与上面两个元素分别相加。
于是得出[11,22,33]和[14,25,36]把这两个结果组合起来,最终结果的第一个元素就是
[[11,22,33],[14,25,36]]
第二个和第三个元素的计算同理,不再赘述。
版权归原作者 金色熊族 所有, 如有侵权,请联系我们删除。