我目前正在为我的最后一年项目开发一个Android应用程序,该应用程序应该可以帮助自闭症患者通过触摸人体图片来指示什么时候某件事会受到伤害。如何识别Android中的某个图像区域(不仅是坐标)?
我遇到的问题是我不知道如何识别它们所触摸的图像部分。该图像是一个位图,在ImageView中作为BitmapDrawable保存。第一次被触摸时,它通过动画和setFilledAfter(true)进行放大,当触摸某个区域时,应用程序应该识别身体的主要部分(例如头部,左手...)。
要识别的区域不是正方形,因此检查坐标不是真正的选项。我正在考虑将每个部分都视为在原始图片上绘制的不同视图,但我也开放了其他解决方案。
为了让事情更有趣一些,应用程序应该可以在手机和平板电脑上使用不同的设备和分辨率。
非常感谢您的帮助。这真的很需要和赞赏。
编辑
到底是什么,我会试图如下。我将有两个图像副本,一个用于显示目的,另一个是内部的,我想要识别的区域用不同的颜色绘制。所以这个计划是推断我从Touch事件中获得的坐标以找出它对应的原始像素,使用Bitmap.getPixel()来确定它的颜色,然后有一个case语句返回每个部分的字符串。
我现在编码这种权利,如果有人有兴趣留言,我会后一切到底是怎样制定出来的,我有人问它甚至此时,相应的代码:d
由于灯罩给我一些其他选择要考虑。
@ user647899,一个非常好的主意!发布您的解决方案,以便其他人可以从中受益,如果他们遇到同样的问题。 – Shade 2011-03-09 08:27:53