0
我使用Sci-kit的GuassianNB来学习我的分类。在拟合我的数据和预测之后,它会抛出内存错误。Scikit通过GuassianNB学习预测内存错误
clf1=GaussianNB()
clf1.fit(X_train,y_train)
y_pred1=clf1.predict(imgarray)
其中:
- X_train是大小的阵列(1413,2)
- y_train是大小的阵列(1413)
- imgarray大小为(9000000, 2)
错误:
其他信息:
SCI-Kit了解版本:0.15,Windows 7的32位,Python 2.7版,PyDev的,内存4 GB
我试图更改版本和其他东西,但问题仍在继续。我的爱人太大了吗?我会感谢你的帮助和建议。
你的'imgarray'尺寸是'9000000'吗? – badc0re 2014-11-25 09:08:27
@ badc0re ...是9000000行,2列由R和G带图像像素组成 – Piyush 2014-11-25 09:26:09
嗯,我认为对于4GB的机器来说很多,想象一下,如果你有10,000个图像(这不是很多),会有多少内存它需要?我认为很高兴看到如何使用一些图像处理技术来减少矢量大小。 – badc0re 2014-11-25 09:37:37