2017-10-20 93 views
0

我最近使用React Native开始了AR应用程序。在那个应用程序中,我必须用我的手机相机捕捉物品。问题是我看不出如何知道GPS点(物体的经度,纬度)是否在相机的视野内。有没有任何框架或数学公式来得到这个结果。React native AR(Pokemon GO)

+0

要创建在用户打开他的相机应用程序,如果相机捕捉一个GPS点的消息是采取显示,如果它消失像https://static1.squarespace.com/static/5627eb27e4b00e3c672920f6/t/59bb120e03596eb13780c9b0/1505761132430/ar_image.png?format=1000w –

回答

0

对于来自图片,相机记录GPS DATAS,可以从元数据使用的lib 的Exifhttps://github.com/headmax/exif-jshttps://www.scantips.com/lights/exif.html

+0

抱歉,但我想创建一个应用程序,用户打开他的摄像头,如果摄像头捕捉到GPS点,则会显示一条消息,如果消息像https://static1.squarespace.com/static/5627eb27e4b00e3c672920f6/t/59bb120e那样消失03596eb13780c9b0/1505761132430/ar_image.png?format = 1000w –

+0

大声笑你认为这很简单,喜欢看视频:)。在这种方式下,您需要本地化相机GPS,在运行时定位EXIF数据以提取地理定位长纬度,但是如何将数据(位置)用于了解地图扫描仪上3D对象的位置? – 2017-10-20 11:17:00

+0

是的我知道我第一次开始打开相机,我有终端的位置,我有从服务器显示的位置的位置我的问题是如何知道GPS点(已知)是在摄像机的视野 –