2014-01-16 93 views
0

我想使用的Hadoop来处理大型图像分割(昴图像TIF格式)Hadoop的分割图像为瓦片用于分割处理

的想法是将图像分割成图块,并将它们分发到每个节点。

地图任务将是分割过程。我使用C++编写的OTB库开发了分割算法。

我创建了一个otb应用程序,该应用程序可以通过给出瓦片的路径从java程序启动,并返回分割的瓦片。

我真的不知道如何实现拆分机制,我必须定制fileInputFormat类和RecorReader类,但使用什么类型的输入键和输入值。

其实我有拿到路径瓦段...

如果有人有什么建议?

最好的问候,

回答

0

解决方案策略可能依赖于图像的数量和种类的尺寸。 如果你有很多图像(远远超过你的群集中免费的mapper插槽的数量),你可能会考虑使用StreamInputFormat处理映射器中的每个图像并使用分割算法。否则,您可能需要实现自己的InputFormat,它将形成正确的InputSplits。