hdf

    0热度

    1回答

    3D HDF的具体Z分量片有谁知道如何使下面的代码的修改,这样我可以读取3D HDF数据在Python的具体Z分量分得一杯羹?正如你从附加图像中看到的,z值的范围是从0到160,我只想绘制'80'。尺寸是400x160x160。这是我的代码。 import h5handler as h5h h5h.manager.setPath('E:\data\Data5', False) for i

    3热度

    1回答

    我有许多hdf5文件,每个文件上都有一个数据集。我想将它们组合成一个数据集,其中数据全部位于同一个卷中(每个文件都是一个图像,我想要一个大的延时图像)。 我写了一个python脚本将数据提取为一个numpy数组,然后将它们写入一个新的h5文件。但是,这种方法将不起作用,因为组合数据使用的内存超过了我拥有的32 GB RAM。 我也尝试使用h5copy命令行工具。 h5copy -i file1.h

    3热度

    1回答

    我有一个HDF4文件需要用python读取。为此我使用pyhdf。在大多数情况下,我很乐意使用SD类打开文件: import pyhdf.SD as SD hdf = SD.SD(hdfFile) ,然后用 v1 = hdf.select('Data set 1') v2 = hdf.select('Data set 2') 继续但是我已经在HDF文件的几个组和一些变量出现在不止具有相

    0热度

    2回答

    在我们有以下两个软件包安装 hdf5-1.8.5.patch1-7.el6.x86_64 (provides /usr/lib64/libhdf5*) hdf5-openmpi-1.8.5.patch1-7.el6.x86_64 (provides /usr/lib64/openmpi/lib/libhdf5*) 这些看似提供什么样的,我觉得是我们的RHEL 6.6的机器重复库(即libhd

    3热度

    1回答

    我有一个CSV文件,我曾与大熊猫转化它在H5文件生成H5文件: data = pd.read_csv('file.csv') data.to_hdf('file.h5', 'table') 现在我想用MATLAB读它。 我该怎么做? 我已经试过 data = h5read('file.h5','/g4/lat'); ,但我得到: Error using h5readc The HDF5

    3热度

    1回答

    根据给出的示例here,我将一个文件映像作为带有有效处理程序的字符串加载到内存中。这是使用H5LTopen_file_image()完成的。 现在我的问题是,我如何检查这是一个有效的HDF5文件?我发现只有一个名为H5check的程序,它有一个复杂的源代码。所以我想知道,是否有一个简单的函数和一个简单的返回值来验证hid_t处理程序中的任何内容是否为有效的HDF5文件?

    1热度

    1回答

    熊猫to_hdf成功,但然后read_hdf失败时,我使用自定义对象作为列标题(我使用自定义对象,因为我需要在其中存储其他信息)。 有什么方法可以使这项工作?或者这只是一个熊猫错误或PyTables错误? 举个例子,下面,我将展示第一制造数据帧foo使用字符串列标题,一切工作正常to_hdf/read_hdf,但后来改变FOO使用自定义Col类列标题,to_hdf仍然有效不错,但随后read_hd

    2热度

    1回答

    我希望在打开损坏的HDF5文件有所帮助。我通过Pandas访问PyTables,但pd.read_hdf()呼叫产生以下错误。我不知道PyTables的内部工作原理。 我认为错误的形成是因为过程保存到文件(每10秒左右追加)得到了复制,所以当时有2个相同的过程追加。我不知道为什么这会破坏文件,而不是重复的数据,但两个错误发生一起这就是为什么我认为他们是因果关系。 ---------------

    0热度

    1回答

    我操纵一个巨大的DataFrame存储使用HDFStore对象,表太大,无法完全加载到内存中,所以我必须提取数据chunck大块,这是很好为了很多任务。 这里是我的问题,我想申请一个PCA在桌上需要整个DataFrame加载,但我没有足够的内存来做到这一点。 PCA function需要一个numpy数组或一个熊猫DataFrame作为输入,还有另一种方法来应用PCA,它可以直接使用存储在磁盘上的

    1热度

    1回答

    我有一个包含pandas Series/DataFrame表的HDF5文件。我需要在HDF一键下存储的表格(熊猫)指数,但不一定是整个表: 我能想到两个(实际上是相同的)获得该指数的方法: import pandas as pd hdfPath = 'c:/example.h5' hdfKey = 'dfkey' # way 1: with pd.HDFStore(hdfPath) as