core-media

    0热度

    1回答

    假设是: 一个XML结构像 <span class="abbreviation">AGB<span class"explanation">Allgemeine Geschäftsbedingungen</span></span> 和改造后的结果应该是: <abbr title="Allgemeine Geschäftsbedingungen">AGB</abbr> 我知道SAX是一个基于事

    0热度

    1回答

    创建CMSampleBuffer我得到一个CVPixelBuffer从ARSessionDelegate: func session(_ session: ARSession, didUpdate frame: ARFrame) { frame.capturedImage // CVPixelBufferRef } 但我的应用程序的另一部分(即我不能改变)使用CMSampleBuf

    0热度

    1回答

    我已经创建了一个OS X的CMIO(CoreMediaIO)插件,可以使用基础the Apple's example with SDK访问媒体硬件(在我的情况下是虚拟相机)。一切完美,但现在释放之前我碰到获得的唯一媒体插件识别的问题就来了: 是不是真的有太多的CoreMedia.framework一般的文档,我很好奇有没有办法在某些共享数据库中获得这个唯一的插件标识符?

    4热度

    2回答

    我们需要将下面的代码从Objective-C转换为Swift。 问: 有几个函数调用来释放的对象,例如,CGImageRelease(newImage)。假设Swift版本不需要模拟,因为所有的内存管理都是自动的,还是需要在Swift中释放内存呢? Objective-C代码: CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(

    1热度

    1回答

    我需要减少视频中的运动模糊,因此我尝试使用sessionPreset上的sessionPreset获得60fps的视频捕捉,但它们都不起作用。我发现一些提到1280预设的旧线程可以在iOS 5上运行,但我没有在iOS 10(iPhone 6)上预设任何预设。 它只是失败,当我尝试配置activeVideoMin/MaxFrameDuration 60fps。 查询格式还表示它只支持2到30fps之

    2热度

    2回答

    通过插入我的摄像头,我可以在我的MAC OS应用程序中操作视频/音频流。 现在我想输出它作为一个新的虚拟视频/音频设备,我可以选择作为像“Skype”或QuickTime应用程序的摄像头输入。 我看着I/O Kit框架和参考网页这样说:“数字视频功能添加到您的软件,使用QuickTime的 的API” 我相信这需要更新,因为QuickTime API已被CoreMedia IO取代。 因此,我查看

    4热度

    2回答

    之前已经提到过这个问题,但是自问题出现以来,Swift肯定发生了一些变化。我试图存储CMSampleBuffer从AVCaptureSession返回的对象稍后处理。经过一些实验后,我发现AVCaptureSession必须重用其参考文献CMSampleBuffer。当我试图保持超过15个会话挂起。所以我想我会制作样本缓冲区的副本。但我似乎无法让它工作。这里是我写的: var allocator:

    2热度

    1回答

    我试图执行CMSampleBuffer的深克隆来存储AVCaptureSession的输出。我在运行函数CMSampleBufferCreateForImageBuffer时收到错误kCMSampleBufferError_InvalidMediaFormat(OSStatus -12743)。我看不出我是如何与CVImageBuffer和CMSampleBuffer格式描述不匹配的。任何人都知道

    0热度

    1回答

    从昨天开始,我虽然懂得如何在Swift中编写扩展,但现在我不确定。我有CMTimebase类的简单扩展。 extension CMTimebase { class func instance(withMasterClock masterClock: CMClock) -> CMTimebase { var timebase: CMTimebase? = nil

    0热度

    1回答

    我需要将CMSampleBuffer转换为Data格式。我正在使用一个第三方框架进行音频相关任务。该框架为我提供了CMSampleBuffer对象中的流媒体(即实时音频)音频。 像这样: func didAudioStreaming(audioSample: CMSampleBuffer!) { //Here I need to conver this to Data format.