我想制作一个小软件,它将以人手的扫描图像作为输入,并根据手相的原理预测未来。 我想就如何准确获得手上各种线条的坐标提供一些建议。 该方法应该保持通用,因为我没有特定的图像集,它应该适用于所有的图像。从手的图像获取信息
在此先感谢。
我想制作一个小软件,它将以人手的扫描图像作为输入,并根据手相的原理预测未来。 我想就如何准确获得手上各种线条的坐标提供一些建议。 该方法应该保持通用,因为我没有特定的图像集,它应该适用于所有的图像。从手的图像获取信息
在此先感谢。
我建议使用java.lang.Palmistry
包,也可能与java.lang.FuturePrediction
包结合使用。
所有玩笑不谈,这里是一个可能有用的建议:
希望这会有所帮助。顺便说一句,如果你对未来有任何有用的头脑,一定要让我们知道!
谢谢克里斯,一旦我实现了每一件事,我都会让你知道。 – user2028730
你能举一个例子吗?
它可能会涉及blurring或band-passing的图像,以便仅保留对比度的相关比例(即,模糊会消除太小的线条和皱纹,带通也会消除太大的特征-规模)。
之后,您可以使用Hough Transform来查找图像中线条的长度和方向。
另外,它可能是一个可行的方法来检测线/皱纹/黑暗区域,然后skeletonize图像。这会给你线条的分支和端点。
看看霍夫变换 – BeRecursive