我是iOS开发新手,并试图抓住Objective-C和Swift。如何将opengl场景叠加到ios摄像头上?
是否有已知的方法在相机馈送之上呈现OpenGL
场景(即立方体)?
我可以在屏幕上使用OpenGLES
在一个项目中没有故事板文件的情况下显示一个多维数据集。在另一个项目中,我可以捕捉摄像头并使用AVFoundation
和故事板进行显示。我也见过类叫做EAGL
和GLKit
,但由于我对iOS的知识不足,我不知道如何使用这些类。
这两种功能是否可以共存?模拟一个非常基本的增强现实。
任何指导,资源或教程人必须完成类似的任务将不胜感激。