Mathematica与SciPy中特征向量变换的区别
之前也有人问过类似的问题,但似乎没有人能解答我的例子。我使用Mathematica和SciPy计算了一个矩阵A的特征值和特征向量;特征值是一致的,但特征向量却不一样:
(1) 最小的特征值对应的特征向量是一致的。
(2) 其他对应的特征向量在Mathematica和SciPy中并不是通过一个简单的乘法关系联系在一起的。
(3) 我可以通过外积计算出一个变换矩阵T,把SciPy的特征向量转换为Mathematica的对应特征向量。
T = numpy.outer(MathematicaEigenvector, SciPyEigenvector)
这样
MathematicaEigenvector = numpy.dot(T, SciPyEigenvector)
我本来以为变换矩阵T对于所有SciPy和Mathematica的特征向量对应该是相同的,因为T只是将矩阵inv(T).A.T的特征向量与原始矩阵A的特征向量联系起来的矩阵。然而,对于每一对特征向量进行第(2)步时,得到的T矩阵却是不同的。
有人能解释一下这个问题吗?如果需要,我可以提供这些矩阵。
更新:以下是Python代码和矩阵:
S = [[0., -1, -1, -1, 0, 0, -1, 0, 0],
[-1, 0., -1, 0, -1, 0, 0, -1, 0],
[-1, -1, 0., 0, 0, -1, 0, 0, -1],
[-1, 0, 0, 0., -1, -1, -1, 0, 0],
[0, -1, 0, -1, 0., -1, 0, -1, 0],
[0, 0, -1, -1, -1, 0, 0, 0, -1],
[-1, 0, 0, -1, 0, 0, 0., -1, -1],
[0, -1, 0, 0, -1, 0, -1, 0., -1],
[0, 0, -1, 0, 0, -1, -1, -1, 0.]];
eig_val,eig_vec = scipy.linalg.eig(S)
idx = eig_val.argsort()
eig_val = np.array(eig_val[idx])
eig_vec = np.array(eig_vec[:,idx])
Mathematica的特征向量是:
[-0.333333, -0.333333, -0.333333, -0.333333, -0.333333, -0.333333, -0.333333, -0.333333, -0.333333],
[0.0385464, 0.570914, 0.371276, -0.570914, -0.0385464, -0.238184, -0.33273, 0.199638, 0.],
[0.570246, -0.0269007, 0.197029, 0.0269007, -0.570246, -0.346316, 0.373217, -0.22393, 0.],
[-0.0816497, 0.0816497, -0.489898, -0.0816497, 0.0816497, -0.489898, 0.408248, 0.571548, 0.],
[-0.333333, -0.333333, 0.166667, -0.333333, -0.333333, 0.166667, 0.166667, 0.166667, 0.666667],
[-0.288675, 0.288675, 2.498e-16, -0.288675, 0.288675, -1.94289e-16, 0.57735, -0.57735, 0.],
[-0.5, 0.5, -2.04678e-16, 0.5, -0.5, 2.41686e-16, -9.25186e-17, 5.55112e-17, 0.],
[0.166667, 0.166667, -0.333333, 0.166667, 0.166667, -0.333333, -0.333333, -0.333333, 0.666667],
[0.288675, 0.288675, -0.57735, -0.288675, -0.288675, 0.57735, 4.02456e-16, -2.08167e-16, 0.]
而SciPy的特征向量是:
[-0.33333333 -0.33333333 -0.33333333 -0.33333333 -0.33333333 -0.33333333 -0.33333333 -0.33333333 -0.33333333]
[ 0.12054181 -0.17813781 0.50013951 0.08577902 -0.21290061 0.4653767 -0.2872389 -0.58591853 0.0923588 ]
[ 0.12191583 -0.21327897 0.26215377 -0.28683603 -0.62203084 -0.1465981 0.35987707 0.02468226 0.500115 ]
[ 0.66666667 0.16666667 0.16666667 0.16666667 -0.33333333 -0.33333333 0.16666667 -0.33333333 -0.33333333]
[-0.16604424 -0.59504716 -0.43689399 0.43294845 0.00394553 0.16209871 0.43294845 0.00394553 0.16209871]
[-0.01305419 0.07446538 -0.0614112 -0.54881726 0.36347168 0.18534558 0.56187145 -0.43793706 -0.12393438]
[-0.66666667 0.33333333 0.33333333 0.33333333 -0.16666667 -0.16666667 0.33333333 -0.16666667 -0.16666667]
[-0.21052033 0.65306873 -0.4425484 0.10526016 -0.32653437 0.2212742 0.10526016 -0.32653437 0.2212742 ]
[-0.02303417 0.0714558 -0.04842162 0.09679298 0.41311466 -0.50990763 -0.0737588 -0.48457045 0.55832926]
[ 4.67737437 0.12612917 0.75157798 -0.09378424 0.91674876 2.36234989 1.03706802 -9.0725069 0. ]
以上两个都是按照特征值的顺序排列的 [-4.+0.j, -1.+0.j, -1.+0.j, -1.+0.j, -1.+0.j, 2.+0.j, 2.+0.j, 2.+0.j, 2.+0.j]
1 个回答
1
我认为原因如下:因为存在重复的特征值,所以变换矩阵 T 必须作用在那个子空间的特征向量的线性组合上,而不是单独的特征值。也就是说,我的第一段代码应该修改为:
T = numpy.outer(MathematicaEigenvectorSubspace, SciPyEigenvectorSubspace)
不过我还没有通过找到使两个子空间等价的线性组合来明确检查这个是否有效。