1
我有一个大型图像数据集来存储。我有30万张图片。每个图像是28800个像素的矢量,这意味着我有(300000, 28800)
如何存储和加载巨大的图像数据集?
我存储,作为遵循
img_arr = np.stack(images, axis=0)
np.savetxt('pixels_dataset_large.csv',img_arr,delimiter=",")
然而它需要较长时间来加载它和一些倍升得到存储器错误的矩阵:
有没有其他的选择来优化存储和加载它?
'np.save' /'np.load'有什么问题?它将数据保存在内存中,因此不会涉及任何分析,并且该过程将与磁盘允许的速度一样快。 –
@ivan_pozdeev,l只有在加载时才有probelm。当我尝试np.load()l得到TypeError:load()得到了一个意外的关键字参数'dtype' – vincent
这意味着你正在使用'load'不正确。 [它没有'dtype'参数](https://docs.scipy.org/doc/numpy/reference/generated/numpy.load.html)。 –