arkit

    0热度

    2回答

    一直在ARKIT教程,并用我的iPhone 6S作为构建设备,问题是在我的经验平面检测似乎并不像我看的教程(使用iPhone 7)有效。 一直没能找到任何关于网上平面检测是否相同或不为iPhone 6S VS较新的型号,没有任何人有任何类似的经验? 或者任何在线资源,明确指出,平面检测将是相同的,不管使用的支持的设备(iPhone 6S以上,2017年的iPad,iPad的亲)。 为了清楚,该问题

    2热度

    1回答

    我正在处理一个AR应用程序,在其中渲染3D模型。 在攻子节点我正在使用的CALayer创建动画,并通过这个线程Set contents of CALayer to animated GIF? let animation : CAKeyframeAnimation = createGIFAnimation(url: gifImageURL!)! let layer = CALaye

    2热度

    1回答

    ©我试图移动我放在表面上的SCNNode对象。 İt移动但规模变化,它变得更小,当我第一次开始移动。 这就是我所做的; @IBAction func dragBanana(_ sender: UIPanGestureRecognizer) { guard let _ = self.sceneView.session.currentFrame else {return} if(

    6热度

    1回答

    我正在构建一个ARKit应用程序,我们希望能够拍摄该场景的照片。我发现ARCamera视图的图像质量不足以在iPad Pro上拍照。 标准摄像机图像: ARCamera图像: 我见过的苹果论坛的贴子,提到这可能是iPad的临10.5特定的并且与固定镜头位置(https://forums.developer.apple.com/message/262950#262950)。 是否有公开的方式来改变设

    0热度

    1回答

    所以, 我有我想要放置节点的确切位置。如果我测试的东西具有球形几何结构我可以通过告诉节点放置在世界球体: node.simdPosition =位置 (I提供了“位置”作为输入到该函数)。 成功地将对象置于世界上我想要的位置。 我真正想要做的是把一个平面: let plane = SCNPlane(width: 0.2, height: 0.3) plane.cornerRadius

    0热度

    1回答

    我正在研究一个基于AR的解决方案,其中使用Scenekit-ARKit呈现一些3D模型。我还集成了CoreML来识别对象并在场景中渲染相应的3D对象。 但是现在我只是把它放在屏幕的中心,尽快检测到对象(仅限于我拥有的对象列表)。是否有可能获得真实世界对象的位置,以便我可以在对象上方显示一些叠加层? 这就是如果我有一瓶水扫描,我应该能够得到水瓶的位置。它可以放在水瓶里的任何地方,但不应该放在水瓶外面

    0热度

    1回答

    我正在使用由3ds导出的DAE模型。 将它加载到Blender即可。 但是当我加载到Xcode。它的右侧变得透明。

    3热度

    3回答

    我们如何使用ARCamera或ARSCNView访问面向前置的相机图像,并且可以像录制相机一样记录ARSCNView?

    1热度

    2回答

    ARKit/SceneKit是否可以通过编程方式纹理化DAE/SCN模型? 使用案例是:我将有1个模型,我想“皮肤”可能有数千个类似但又不同的纹理。我可以: 纹理提前模型,并迫使无论是我的应用程序或我的后端容纳成千上万的庞大的纹理模型文件(都使用相同的较重的3D模型/网格文件和每个结合起来一个不同的更轻的2D纹理文件);或 允许我的应用程序/后端随附1个重/体积较大的3D网格/模型文件和数千个较轻

    0热度

    1回答

    我们希望启用一项功能,该功能允许使用从网页上的深层链接来查看ARKit应用的模型。 有没有人发现过使用用户代理字符串或任何其他基于浏览器的机制来发现设备是否与ARKit兼容的方法? 谢谢!