arkit

    0热度

    3回答

    我使用的是带有SceneKit的ARKit。当用户按下一个按钮时,我创建一个锚点并与其对应的SCNNode添加一个3D对象(从项目中的.scn文件加载)。 将3D物体朝向相机放置,与相机具有相同的方向。我想让它看起来像物体躺在平面上,如果是这样的话,不要倾斜。所以,如果我知道了,我需要应用一个旋转变换,以便围绕X和Z轴的旋转变为0. 我的尝试是:取节点的x和z eulerAngles,将它们颠倒和

    4热度

    2回答

    在几乎所有的ARKit教程中,似乎我们总是使用ARPlane来发言。 let planeGeometry = SCNPlane(width:CGFloat(planeAnchor.extent.x), height:CGFloat(planeAnchor.extent.z)) let planeNode = SCNNode(geometry:planeGeometry) planeNode.p

    2热度

    1回答

    我正在使用苹果https://developer.apple.com/sample-code/wwdc/2017/PlacingObjects.zip给出的样本基于AR POC。 有什么办法放置在上面Scenekit另一个3D对象3D对象? ,比如我有摆放了一张桌子上面,我必须把别的东西像一个花瓶。如何实现这一目标? 因为据我所知,ARKit是只检测地板表面,如果我尝试放置花瓶在已经保持表,它是将

    2热度

    1回答

    这可能是一个非常困难的问题。到目前为止,ARKit与3D建模软件中的3D模型一起工作。我想知道是否有一种方法可以使用手机摄像头来3D扫描物体(比如汽车),然后在ARKit中使用它。任何可以在其他平台或iOS上执行此操作的开源项目?

    5热度

    1回答

    我真的很喜欢一些关于如何将Apple的新Vision API与ARKit结合起来的方式来实现物体识别的指导。这不需要跟踪移动物体,只需将其识别为稳定的三维空间,即可让AR体验做出相应的反应。 我知道这种类型的体验在Vuforia或Wikitude等服务中可用,但我只想尝试使用本机Apple API。

    2热度

    1回答

    我正在尝试使用平移手势识别器移动scenekit中的节点。我只是沿x轴移动它,但是我的手势使对象进一步/更快地移动,然后它甚至应该只使用小手势。我不是100%肯定,我在做什么错在这里,但这里是我的手势识别代码: @objc func handlePan(pan:UIPanGestureRecognizer) { if pan.state == .changed { let t

    0热度

    2回答

    我正在使用ARKit-SceneKit处理应用程序。在我的应用程序中,我已经启用了表面检测(我跟着apple提供的放置对象样本)。如何查找检测到的表面是否不再可用?也就是说,最初只有当用户在ARSession中检测到表面时,我才允许他放置3D对象。 但是,如果用户快速移动或聚焦某处,检测到的表面区域就会丢失。在这种情况下,如果用户试图放置另一个物体,我不应该允许他放置它,直到他再次扫描地板并修正表

    1热度

    2回答

    所以要清楚我的目标,因为我没有任何代码可以分享...可以说我有一个位于摄像头和另一个SCNNode之间的SCNNode。第一个SCNNode是SCNBox,但没有纹理,因此第二个SCNNode可以在它后面看到。我想给第一个节点一个透明的材质,但是也让它隐藏在它后面的所有节点,就好像它是不透明的。在一个普通的场景中,这意味着你可能会看到场景背景颜色,也许是黑色的,但是我打算在ARKit中这样做,因为

    1热度

    1回答

    寻找一种方式来捕获屏幕截图或ARScene的视频,而无需按钮和其他子视图 传统屏幕捕捉捕捉一切画面包括UI控件

    2热度

    4回答

    在Apple的演示文稿中他们说如果ARWorldTrackingConfiguration不支持,我们可以使用较小的AROrientationTrackingConfiguration(以前称为ARSessionConfiguration)。 但是当我尝试这一个A8设备(iPad的迷你4)上,它没有什么区别是否让ARWorldTrackingConfiguration()失败与否。跟踪不起作用。