eigenvector

    -1热度

    1回答

    如何构造具有相同对角元素的两个正半定矩阵?假设M1和M2是两个psd矩阵。我想要对角线(M1)和对角线(M2)的矢量相同。非对角元素必须有所不同。 [a e f g] [a s t u] [e b h i] [s b v w] [f h c j] [t v c x] [g i j d] [u w x d] 认为第一个矩阵为M1,第二个矩阵为M2。请记住M1和M2都是PSD。 在此先感谢!

    1热度

    1回答

    我想用scipy.sparse.linalg.eigsh使用shift-invert模式找到复杂矩阵的特征值和特征向量。在矩阵中只有实数,我可以得到与spicy.linalg.eigh求解器相同的结果,但是在添加虚部时,特征值会发散。一个微小的例子: import numpy as np from scipy.linalg import eigh from scipy.sparse.linal

    0热度

    1回答

    事先道歉,Python不是我的强项。 与矩阵的实际特征值(如Python计算)相对应的特征向量看起来不是特征向量,而由Wolfram Alpha计算的特征向量似乎可行。 (我的同事证实,同一病理执行R中的计算时,虽然我没有成绩单似乎是这样。)代码片段: >>> import numpy as np >>> in_matrix = np.array([[0.904, 0.012, 0.427],

    1热度

    1回答

    据我所知,有经典的特征向量中心性,并有变种,如卡茨中心性或PageRank。我不知道后者是否是特征向量中心性演变的“最新阶段”,因此总是优越?还是有一定的条件,取决于哪一个应该使用一个或另一个。如果是这样,那将是什么条件?

    2热度

    1回答

    我在ruby中使用Matrix类来计算特征值和特征向量。有了这个代码: m = Matrix[[0.6868,0.6067],[0.6067,0.5978]] v, d, v_inv = m.eigensystem 正确的结果应该是: [ 1.25057433 0.03398123] [[ 0.73251454 -0.68075138] [ 0.68075138 0.73251454]]

    1热度

    1回答

    我使用apache.commons.math3库来计算一个3x3矩阵的特征向量,但对于计算特征向量的特征分解方法将返回错误的结果:这是我的代码: double[][] matrix = { {1 ,3 ,2}, {1 ,4 ,3}, {2 ,1 ,0} }; RealMatrix realMatrix = MatrixUtils.cr

    0热度

    1回答

    我尝试使用Python sklearn对breast_canser数据集进行主成分分析。 并且不明白为什么特征向量的点积(3个分量)不是零? frst = pca.components_[0,:] scnd = pca.components_[1,:] thrd = pca.components_[2,:] orth1 = np.dot(frst,scnd) orth2 = np.dot(

    1热度

    2回答

    1)在eigenface方法中,特征脸是来自不同面的元素的组合。这些元素是什么? 2)输出面是由不同权重的不同特征脸组成的图像。特征脸的权重究竟意味着什么?我知道权重是图像中特征脸的百分比,但它究竟意味着什么,是指所选像素的数量?

    0热度

    1回答

    我有一个问题,通过eig_sym犰狳中的本征分解。当我试图计算出多组特征向量的并行,不时的特征向量是 不是正交 不归 甚至不会有问题的矩阵的特征向量。 如果每次只运行一次计算(所以这似乎是一些线程安全问题),此问题消失。一旦两个计算并行运行,问题就会再次出现。奇怪的是,特征值在任何情况下都是正确的。 //compile with: g++ -std=c++11 -pthread -larmadil

    0热度

    1回答

    我尝试使用一些示例(here)使用ARPACK,但我甚至无法弄清楚如何输入我的矩阵。从这个question看来,Python和Matlab中的实现似乎是避免ARPACK复杂性的唯一解决方案。是否有一些(基于Fortran的)方法来做到这一点,也避免计算所有的特征值/特征向量?