在学习了如何使用之后einsum,我现在正在尝试了解其np.tensordot工作原理。
einsum
np.tensordot
但是,特别是在参数的各种可能性方面,我有点迷失了axes。
axes
要理解它,因为我从未练习过张量演算,所以使用以下示例:
A = np.random.randint(2, size=(2, 3, 5)) B = np.random.randint(2, size=(3, 2, 4))
在这种情况下,可能有什么不同np.tensordot,您将如何手动计算?
的想法tensordot非常简单-我们输入要进行求和的数组和轴。参与和减少的轴在输出中被删除,并且输入阵列中的所有其余轴都作为输出中的不同轴 散布 ,从而保持输入阵列的馈送顺序。
tensordot
让我们看一下具有一和两个求和轴的两个示例案例,还交换输入位置,以及如何在输出中保持顺序。
输入:
In [7]: A = np.random.randint(2, size=(2, 6, 5)) ...: B = np.random.randint(2, size=(3, 2, 4)) ...:
情况1:
In [9]: np.tensordot(A, B, axes=((0),(1))).shape Out[9]: (6, 5, 3, 4) A : (2, 6, 5) -> reduction of axis=0 B : (3, 2, 4) -> reduction of axis=1 Output : `(2, 6, 5)`, `(3, 2, 4)` ===(2 gone)==> `(6,5)` + `(3,4)` => `(6,5,3,4)`
情况#2(与情况#1相同,但是交换了输入输入):
In [8]: np.tensordot(B, A, axes=((1),(0))).shape Out[8]: (3, 4, 6, 5) B : (3, 2, 4) -> reduction of axis=1 A : (2, 6, 5) -> reduction of axis=0 Output : `(3, 2, 4)`, `(2, 6, 5)` ===(2 gone)==> `(3,4)` + `(6,5)` => `(3,4,6,5)`.
In [11]: A = np.random.randint(2, size=(2, 3, 5)) ...: B = np.random.randint(2, size=(3, 2, 4)) ...:
In [12]: np.tensordot(A, B, axes=((0,1),(1,0))).shape Out[12]: (5, 4) A : (2, 3, 5) -> reduction of axis=(0,1) B : (3, 2, 4) -> reduction of axis=(1,0) Output : `(2, 3, 5)`, `(3, 2, 4)` ===(2,3 gone)==> `(5)` + `(4)` => `(5,4)`
情况2:
In [14]: np.tensordot(B, A, axes=((1,0),(0,1))).shape Out[14]: (4, 5) B : (3, 2, 4) -> reduction of axis=(1,0) A : (2, 3, 5) -> reduction of axis=(0,1) Output : `(3, 2, 4)`, `(2, 3, 5)` ===(2,3 gone)==> `(4)` + `(5)` => `(4,5)`
我们可以将其扩展到尽可能多的轴。