pca

    0热度

    1回答

    def doPCA(data, dimensions=2): from sklearn.decomposition import PCA model = PCA(n_components=dimensions, svd_solver='randomized', random_state=7) model.fit(data) return model File "/home/dogus/

    1热度

    1回答

    我从室外摄像机图像的大型档案库。接近200000个项目,每个1280x960彩色像素。我想通过为这些数据构造SVD(Eigen-images)并减少数据向量(例如每张图片的100维向量)来索引这个数据库。 加载所有的数据到RAM中一次,大约需要的RAM 200GB。首先,我没有太多内存。其次,它不会太大。所以,我正在寻找执行递增奇异向量分解,可能应该存在像OpenCV或Eigen这样的库。 我不想

    2热度

    1回答

    我有问题在边缘R中创建MDS阴谋,以可视化实验(白血病)和控制(健康捐助者)群体的颜色。 我用htseq文件作为edgeR的输入。每个文件由两列组成 - gene_ID和读取计数。 “A”代表白血病患者,“H”代表健康捐献者。 这里是我的代码: 创建一个表: samples <- matrix(c("A18.txt","experiment","blood_exp", "A19.txt

    -1热度

    1回答

    虽然我在用scikit-learn进行PCA时,发现它使用svd来获得eigenvalue和eigenvector,然后使用svd_flip来获得真正的特征向量。 这里是我的代码eigenvalue和eigenvector。 pca = PCA(data.shape[1]) newData = pca.fit_transform(data) eigenvalue, eigenvector =

    1热度

    1回答

    我想在椭球体内生成点,然后尝试适应光滑的椭球体表面。目标是适应未知数据,我必须在3个主轴上找到a,b和c的值。 Rinv应该等同于pc。但是,我以不同的顺序获得电脑。所以我必须找到正确的顺序来将我的数据旋转到matlab坐标。 a=3; b=5; c=1; index=1; for i=1:500000 x=10*rand-5; y=10*rand-5; z=

    2热度

    1回答

    我最初尝试重现此paper(图1)中显示的PCA图。 本文使用PCA技术根据reference 16(图1-B和C)在较低维度上显现蛋白质结构构象。 PC图中的每个点表示低维空间中的蛋白质结构。但我现在有些怀疑,因为我正在试图重现这些情节。所以我查看了这个link,这是来自参考文献-16的作者的称为bio3d的R库。每个pdb文件在其pdb文件中都有{X Y Z}坐标位置。在将蛋白质区域对齐后,将

    -1热度

    1回答

    我正尝试使用PCA来选择一些K主要组件。 我明白,不应该在测试集上重新运行PCA,而是使用在对训练集进行建模时找到的特征向量\ PC。 我有2个CSV的 - 一个是训练集, 其他测试集(不每条记录标签) 在 训练 PCA过程中设置与done下面的代码: # Load CSV file train_set.init_data <- read.csv("D:\\train.csv", header

    3热度

    1回答

    我正在做PCA,我对哪些原始特征最重要感兴趣。让我来说明这一个例子: import numpy as np from sklearn.decomposition import PCA X = np.array([[1,-1, -1,-1], [1,-2, -1,-1], [1,-3, -2,-1], [1,1, 1,-1], [1,2,1,-1], [1,3, 2,-0.5]]) print

    0热度

    1回答

    这里是数据科学的新手。 我有一个高维数据集。有83个样品2308个尺寸,其形状是(83,2308)。另外,我有一组样本类型,长度为83,形状为(83,)。 我试图训练一个KNN分类器(2个邻居)与我的原始数据集的一个子集,并用它来预测其余数据点(测试子集)的样本类型。我的训练数据具有形状(66,2308),我将其训练成形状(63,)的样本类型数组。 我的目标是训练我的KNN分类器,它的训练集的维数

    0热度

    1回答

    如果我施加PCA上的特征向量,然后我做聚类,例如像以下: reduced_data = PCA(n_components=2).fit_transform(data) kmeans = KMeans(init='k-means++', n_clusters=n_digits, n_init=10) kmeans.fit(reduced_data) 减小的数据将是在PCA分量而言,使后 在k