Tensor Train 分解

这一节主要是讲一下高阶张量的TT分解,由于复合量子系统的基矢对应的系数向量的维数会随着子系统个数的增加呈指数上升,因此我们需要TT分解低秩近似来解决这样的一个“指数墙”的问题。

Tensor Train 分解
TT分解的思想是把N阶张量分解成N个二阶和三阶张量的缩并,具体的分解形式,包括辅助指标的定义,上图描述的很清楚,此处不做赘述。

形式是清楚的,但是具体的分解方法其实有很多的细节在里面,这些细节性的东西也是本次博客重点介绍的地方:
Tensor Train 分解
我们以画圈的四阶张量为例讲解具体的分解过程(注意这里是四阶张量,红线处的那个指标不能忽略),我们把红线和矩阵上方第一个指标合在一起并成一个大指标,上方的后两个指标合在一起并成另一个大指标,这样子,我们就把一个四阶张量reshape成了一个矩阵(reshape的过程和其他资料里面的所谓矩阵化是一个意思,但是我们之前在介绍张量分解提到的矩阵化,那里面是把N阶张量分成了1,N-1,这里是四阶张量2,2分的,但其实方法是一致的)。reshape成矩阵后,我们就可以做奇异值分解,奇异值分解会在U和 Γ \Gamma ΓV之间自然的多出一个辅助指标。这样子就可以把一个四阶张量分成了两个三阶张量的缩并。

其实,这里有些人(实际上是我啦)可能还有一个会把自己绕进去的地方:为什么张量的分解可以先矩阵化,做完分解,在返回成张量?这里想一想矩阵乘法的形式和缩并运算的形式就好理解了。

这里面我们要注意一下图中不亏秩的概念,在知道这个概念后,我们看这样一个例题:
Tensor Train 分解
这个练习大家可以自行理解,理解了这个题,我们也会明白为什么在讲解TT秩概念的时候我们说,TT秩的第n 个分量可以说成是第n次奇异值分解得到的非零奇异值的个数,也可以说成是第n次奇异值分解时得到的辅助指标的维数。

同时,为什么指数墙仍然没有克服也是好理解的,显然辅助指标的维数有可能变得非常大。

Tensor Train 分解
低秩近似的概念如图所示,这里不做赘述,一种简单的近似方法就和之前一样,如果我的辅助指标的维数要超出了,我就把取前n个最大的奇异值,把后面的全扔了。

上一篇:Acwing131. 直方图中最大的矩形(3.23)(单调栈)


下一篇:Unicode码转汉字