hdf

    1热度

    1回答

    每个文件保存在一个循环我有一个名为作为modis1.hdf,modis2.hdf和modis3.hdf一个文件夹中的三个文件。我可以使用我的命令单独读取文件。 for i=1:3 or for i=1 lst_try=['D:\lst2016\lst_try\modis',num2str(i),'.hdf']; lst_3(:,:,:,:,i)=hdfread(lst_try, 'MODI

    0热度

    2回答

    我有大量压缩的HDF文件,需要阅读。 file1.HDF.gz file2.HDF.gz file3.HDF.gz ... 我可以在未压缩的HDF文件用以下方法 from pyhdf.SD import SD, SDC import os os.system('gunzip <file1.HDF.gz> file1.HDF') HDF = SD('file1.HDF') 阅读

    0热度

    1回答

    我在这里新建以及从源代码安装软件。 我想安装http://www.hdfeos.org/software/h4cflib.php转换HDF - >的NetCDF文件。 外部需求是HDF4 HDF-EOS2库。与 dpkg -l | grep hdf ii libhdf4-0-alt 4.2.10-3.2 amd64 Hierarchical Data Format library (withou

    0热度

    1回答

    尝试使用HDF 3.0.0沙盒运行SAM拓扑时,出现以下异常。我在画布上只有两个组件。 1)从卡夫卡获取输入主题 2)将主题中的内容写入HDFS接收器。 java.lang.InstantiationException:org.apache.storm.kafka.bolt.selector.DefaultTopicSelector 现场背后的引擎是风暴。在尝试执行流程时,会发生上述错误。我正在尝

    -1热度

    1回答

    我想在我的HDF文件中编写一个属性,我的代码管理为该属性编写适当的值,如果它是整数类型但不适用于实数。这是代码 ! Number of processes is assumed to be 4 ! PROGRAM DATASET_BY_CHUNK USE HDF5 ! This module contains all necessary modules ! USE MPI

    0热度

    1回答

    阅读GlobSnow HDF4文件,我想读.HDR在R.文件中的文件来自GlobSnow,可在 http://www.globsnow.info/swe/archive_v2.0/2013/L3A_daily_SWE_HDF/ 我已经使用了gdalUtils包,这似乎为MODIS数据的工作中找到,但不适用于GlobSnow数据。我试过这个: sd <- get_subdatasets("GlobS

    0热度

    1回答

    我一直在争取让GDAL正确安装一段时间,而当我想我已经正常工作时,我发现了另一个路障。 我已经使用here描述的解决方案安装了GDAL,它是一种支持HDF4文件格式的表单。例如,在bash中使用gdalinfo --formats将返回支持的文件格式列表,并在其中包含HDF4。另外,gdalinfo XYZ.hdf返回我输入的任何hdf文件的完整描述。 但是,当试图通过Python处理HDF4文件

    0热度

    1回答

    我试图将四个不同的hdf5文件集体连接到一个虚拟数据集(VDS)中。集体说,我的意思是每个进程都调用H5Pset_virtual(...)作为自己的本地文件。这样可以创建VDS文件吗?我已经通过HDF5组搜索了很多VDS教程和文档(如this或this),但找不到这样的功能或示例。

    1热度

    1回答

    我得到ValueError: Columns index has to be unique for fixed format当我试图保存我组合多个时间序列数据帧形成的数据帧。这是我做了什么 df1=pd.concat([d1,d2,d3,d4],axis=1] df2=pd.DataFrame(d5) df3=pd.concat([d6,d7,d8],axis=1] main_df=pd.

    0热度

    1回答

    我真的很新来python mutli处理并试图并行我的代码,因为它需要太长时间才能运行。我有一段代码运行大量的数据来查找是否有任何文件被损坏。到目前为止,我的代码是: def check_Corrupt_1(dirPath, logfile): fileCheck = open(logfile, "w").close() fileCheck = open(logfile, "