libav

    0热度

    1回答

    我有一台没有显卡的Ubuntu PC。 我用avconv视频转换: avconv -i video.wmv -c:v libx264 -c:a libmp3lame -b:v 1800K video.mp4 我的CPU(英特尔酷睿i7-4770K)处理1.5-2Gb视频在7-10分钟。 在avconv github sources我看到的选项 Hardware accelerators:

    0热度

    1回答

    我想在未复制视频数据的情况下写入所有视频帧后,添加protobuf消息作为附件到Matroska(mkv)视频文件。这必须是可能的,因为附加任意文件到MKV可以MKVToolNix工具套件(对于JPG)来实现: # add attachment, no copy according to man page mkvpropedit out.mkv --add-attachment ~/Downlo

    3热度

    2回答

    我想使用libav库来解码H264帧。通过分配框架和上下文初始化库后,我使用下面的代码来解码: AVPacket pkt; int got_picture, len; av_init_packet(&pkt); pkt.size = size; pkt.data = buffer; while(pkt.size > 0) { if((len = avcodec_decode_v

    1热度

    1回答

    我要寻找的视频编解码器具有以下规格: (数学)无损 采取与RGB48像素格式(16位BPC)帧 可能通过libav使用 我不能使用类似VP9的东西,因为它只支持YUV色彩空间,RGB-YUV转换与信息丢失有关。 任何任何想法?提前致谢!

    4热度

    1回答

    我正在构建一个iOS应用程序,需要在后台重新编码和修剪视频。 我无法使用iOS库(AVFoundation),因为它们依赖于GPU,并且如果它背后照明,任何应用程序都无法访问GPU。 由于这个问题,我切换到FFMpeg并编译它(和libx264一起)并将其集成到我的iOS应用程序中。 总结的事情了我需要的是: 修剪视频的前10秒 重新缩放视频 了几个星期之后 - 和敲打我的头靠墙相当经常 - 我设

    2热度

    1回答

    我试图为所有体系结构(包括64位)编译lib。 我创建的脚本适用于armeabi,armeabi-v7a,arm64-v8a和x86。 它失败了mips,并可能会失败的mips64以及,但我不关心他们;它是次要的,我有主要问题:我关心x86_64,这个不会编译。 编辑:x86也失败了。在帖子结尾编译错误日志。 下面是该脚本: 创建一个独立的工具链:就像一个魅力 使用该工具链配置的lib: ./co

    1热度

    1回答

    我编译并测试了tutorial从here,它工作得很好。在我尝试编辑教程以读取/转换帧到grayscale后。我刚刚将pFrameRGB更改为pFrameGray,PIX_FMT_RGB24至PIX_FMT_GRAY16,并只保存了第200帧。它编译并运行,但图像不显示预期。怎么了? 的图像: 的编辑代码: #include <libavcodec/avcodec.h> #include <li

    0热度

    1回答

    我以前成功打开,解码并从.mp4文件保存帧。原始帧均YUV420P格式我转换为RGB24使用sws_scale()功能,并将它们保存到.ppm文件。我想要现在要做的就是保持YUV420P原料解码帧,或转换,我去YUV420P帧只是为了确保他们在YUV420P。但问题是,我不知道我应该使用哪种类型的文件,我猜.yuv?另一个问题是我也不知道如何保存YUV420P数据。 我用来保存RGB24在.ppm

    0热度

    1回答

    我试图写在C的的WebRTC应用程序的解码器,我收到一个RTP流,我分析每一个数据包,重新排序,并把有效载荷在AVPacket,这里描述( FFmpeg decode raw buffer with avcodec_decode_video2)。 重新排序部分没有在这个链接描述,但我很确定这部分是确定的。 问题是,我不知道如何给解码器有关分辨率,pix_fmt等信息。我是否需要创建一个AVstre

    1热度

    2回答

    我试图使用ffmpeg从设备和文件中提取原始流。我注意到关键帧信息(视频:宽度,高度,像素格式,色彩空间,音频:采样格式)都存储在AVCodecContext和AVFrame中。这意味着我可以在播放流之前访问它,并且可以为每一帧访问它。 我需要考虑更改帧到帧的这些值需要多少钱?我发现https://ffmpeg.org/doxygen/trunk/demuxing__decoding_8c_sou