虽然我一直在研究的最佳实践和尝试多种选择一个正在进行的项目(即Unity3D iOS的项目Vuforia与本地集成,提取出与AVFoundation然后通过基于云的图像识别的图像帧) ,我得出的结论是我想使用ARkit,Vision Framework和CoreML;让我解释。视觉框架与ARkit和CoreML
我不知道我怎么会是能够捕捉ARFrames,使用视觉框架来检测和使用CoreML模型跟踪给定的对象。
此外,这将是很好有一个边框,一旦对象被识别一起在手势触摸添加一个AR对象的能力,但是这是有可能获得实实在在的项目下来后方可实施。
这无疑是可能的,但我不确定如何通过视觉的ARFrames到CoreML通过进行处理。
任何想法?
从基础开始。哦,理解你**必须**使用Xcode 9和iOS 11.现在,通过“基础知识”,我的意思是了解每件* *和* *不是*。 Vision将成为最高级别 - 它可以跟踪和使用CoreML模型。但你知道吗?如何训练模型?如果不是,那么先学习ML,然后*然后*学习如何将训练好的模型导入到CoreML中。我不会解决ARKit问题(对不起,这对于我的利基来说太广泛了 - 你确定它需要你的?),但是如果你想直接解决CoreML,你需要了解CVPixelBuffer是什么。祝你好运! – dfd
感谢您的回复;是的,我同时使用Xcode 9和iOS 11.我可以训练一个模型,因为这是我真正进入编程的开始(在Python中的NLP),我可以将模型转换并插入Xcode。除此之外,我还可以使用预先训练好的模型来暂时测试应用程序的功能。我无法理解使用CoreML模型提取ARframe并通过Vision传递它的方法。还没有真正的深层文件,并且很好奇,如果有人可以摆脱见解@dfd – pythlang
不客气。现在,你有什么特定的问题?使用Vision跟踪对象的东西?将训练有素的模型导入CoreML?显示边界框? – dfd