gpuimage

    0热度

    1回答

    我在GPUImage中使用Swift 3。我有一个名为:lut_lookup.png的LUT图像文件我已经成功地将它用于静态图像上的GPUImage,并且它使用LUT滤镜应用并显示结果。 我现在试图将相同的LUT过滤器应用于实时相机视图,但我似乎无法使其工作。它基本上不显示相机。 我在下面提供了我的代码,任何帮助将不胜感激。这可能很简单,我错过了/做错了,但我似乎无法发现它。 import UIK

    0热度

    1回答

    执行代码后,我的内存使用量增加了。如何在执行后释放内存? 仅当我将图像保存在文件系统中时才会重现该问题。任何人都可以帮助解决这个问题? 我的代码: let contrastfilter = GPUImageContrastFilter() contrastfilter.contrast = 1.4 let thresholdImageFilter = GPUImageAdaptive

    0热度

    1回答

    我无法将过滤后的视频保存到使用GPUImage 2的磁盘。我已经成功添加了一个过滤器,现在我需要将该视频保存到磁盘,这是我遇到问题的位置。有关于这方面与GPUImage 1个答案,但我不能让他们与GPUImage 2 工作的过滤: let bundleURL = Bundle.main.resourceURL! let movieURL = URL(string: "test.mov", rel

    2热度

    1回答

    我正在使用GPUImage库函数来操纵CVPixelbuffer的高度和宽度。我以纵向录制视频,当用户旋转设备时,我的屏幕将自己调整为横向模式。我希望横向框架适合屏幕。 例如: - 我以人像模式320x568开始视频,当我将设备转为风景时,我的框架是568x320,我希望适合320x568。为了调整这个东西,我想操纵CVPixelBuffer。但是这消耗了大量的内存,最终我的应用崩溃了。 - (C

    0热度

    1回答

    我与@Brad Larson GPUImage框架一起工作。有了这个,我可以一次一个地将视频文件应用到视频文件中。 但我需要实现的功能就像用户可以将多个过滤器一次应用到视频文件。尝试不同的方式,但没有成功。谁可以帮我这个事?

    1热度

    1回答

    我已经使用GPUImage框架实现了铅笔素描滤镜。但是我认为这个过滤器对于生成输出来说太复杂了。 铅笔滤镜功能 - (void)pencilSketch { //UIImage *inputImage = [UIImage imageNamed:@"portrait.jpg"]; UIImage *inputImage = [UIImage imageNamed:@"self

    0热度

    1回答

    我有一个带有绿色背景的视频,我想通过实时相机视图显示它并移除绿色背景。我也想在不同的视图中显示它,以便用户能够移动或调整视频大小。这可能与GPUImage?你能描述一下必要的步骤吗?

    0热度

    2回答

    我正在使用GPUImage框架,我注意到编译器会自动跳过setColorAverageProcessingFinishedBlock的括号内的所有内容。它完全跳过这些内容并继续执行代码中的其他所有内容。一旦执行了其他所有内容,它就会回到括号内的内容。显然,这具有意想不到的副作用。 NSMutableArray *redValues = [NSMutableArray array]; NSMuta

    1热度

    1回答

    我的输入数据形状为[N,3,64,64] 我这之后运行上踩踏的代码。 Using Theano backend. Using gpu device 0: Tesla K20m (CNMeM is disabled, cuDNN not available) ValueError: GpuCorrMM images and kernel must have the same stack size

    0热度

    1回答

    与simpleVideoFilter和人脸检测类似,我想用彩色矩形突出显示我的GPUImage2视频源的一部分。 SolidColorGenerator似乎是一个很好的开始,但有两个例外。首先,我不确定如何将SolidColorGenerator输出转置到原始图像的正确位置。其次,我不确定如何将N个矩形添加到我的原始图像。同时,我已经与LineGenerator取得了成功,但我认为矩形看起来会更好