videocore

    1热度

    1回答

    我使用VideoCore库来捕获视频并将视频直播到服务器。我正在使用一个方形uiview来监视我应用程序上的实时流。但我无法用我的直播视频输出完全填充视图。很感谢任何形式的帮助。谢谢。我是iOS开发新手。 这里是我的代码: ViewController.h #import <UIKit/UIKit.h> #import <MediaPlayer/MediaPlayer.h> #import <

    1热度

    1回答

    我想从iOS设备发送外部视频。 这个视频正在从直播接收:RTSP服务器或hls url(不是从iPhone摄像头)。 目前,我可以(内部使用CameraSource和MicSource)使用VideoCoreiPhone流我的相机,视频,但现在,视频我要流来自一个URL。类似于Periscope streaming video from GoPro Cam。 问题1:我不知道如何从一个RTSP U

    0热度

    1回答

    我想在类文件的顶部设置一个变量,所以我可以使用它几行。我遇到的问题是Instance member 'streamWidth' cannot be used on type 'BroadcastViewController'。所以我认为这是因为我不能在主类中引用这个变量,所以我必须在函数中使用它。现在如果是这样的话,我有办法解决这个问题吗? class BroadcastViewControlle

    0热度

    1回答

    上有VCFilter类型的VCSimpleSession的滤镜属性: typedef NS_ENUM(NSInteger, VCFilter) { VCFilterNormal, VCFilterGray, VCFilterInvertColors, VCFilterSepia, VCFilterFisheye, VCFilterGlow

    0热度

    1回答

    我试图做一个潜望镜般的应用程序(不实际,但技术要求都是一样的),用户可以从开始他们的iPhone迅速分流到用户的未知量,无论是移动。我正在尝试使用Azure媒体服务进行实时视频流式传输,但即使在阅读了我卡住的文档页面之后。 我使用的VideoCore(https://github.com/jgh-/VideoCore)从iOS设备发布到服务器RTMP。在本地(使用Wowza)我可以连接到我的一套用

    1热度

    1回答

    我基于广播我使用的VideoCore库报道用的,我使用下面的代码来启动RTMP会话 [_session startRtmpSessionWithURL:urlForStream andStreamKey:streamID]; urlForStream将某个应用就像RTMP wowza服务器的URL://some.tv/一些/用户名/用户名/ randamvalue 即

    0热度

    1回答

    您好我正在开发一个基于广播的,我现在用视频核心库中的应用现场H264/AAC iOS的相机流发送到Wowza我需要对视频进行编码H.264和AAC音频然后只有Wowza服务器流我的视频,但我不知道如何实现一个任何机构可以帮我请

    0热度

    1回答

    我的应用程序使用VideoCore项目直播到Wowza服务器并存储视频。它还使用AVCaptureMovieFileDataOutput来记录离线视频。 我想在视频的左上角嵌入视频捕获时间戳,而不是静态时间。这意味着它不仅是一个静态水印,而且还是一个真正的视频拍摄时间显示。 对于流式的情况,我现在不知道。对于离线情况,我尝试使用AVCaptureAudioDataOutput来获取每个帧以添加时间