webrtc

    0热度

    1回答

    我已经在我的WebRTC视频聊天页面中插入了一个静音按钮,但是我无法使其工作。如果我在浏览器中点击它,我会得到一个控制台消息,声音已被静音,但仍然有声音。 的约束变量: var constraints = { video: true, audio: true, }; 如果我改变音频假这里不会有任何声音。 守则静音按钮: function muteVideoBtnClick

    0热度

    1回答

    我已经尝试了本教程的大小,但是当我拿起QVGA或其他,没有任何反应....分辨率保持不变 为什么我不能修复它??? 这是源代码 所以我可以看到这个功能: //RESOLUTION $("#QVGA").click(function() { console.log("QVGA"); $("#resolution").html('QVGA');

    -1热度

    1回答

    我使用的科尔多瓦 - 插件,人行横道,网页流量和即时得到Android设备上运行时navigator.getUserMedia不是一个函数开发离子的WebRTC应用任何想法为什么? navigator.getUserMedia({audio: true, video: true}, function(stream){ // Set your video displays

    0热度

    1回答

    我正在制作一个小型的chatroulette克隆,其中实现了交换机摄像头功能。大多数时候它都有效,但有时我根本没有图像,包括整个页面上的奇怪的文物,而不仅仅是视频元素。 图片:https://i.gyazo.com/87d089807c17314ff79cda2e8eaea454.png 视频:https://drive.google.com/file/d/0B3h9E32u9L9aU0lZZ0l

    0热度

    1回答

    我想从客户端运行流,然后从服务器加入到客户端 。如何通过服务器将视频流式传输到其他观众?这可能吗?

    0热度

    1回答

    我修改了h264_encoder_impl以使用基于nvidia网格的硬件编码器。这是通过用Nvidia API调用替换OpenH264特定的调用来完成的。编码流可以成功写入文件,但和_size的encoded_image_是不够的,RTPFragmentationHeader也需要填写。 // RtpFragmentize(EncodedImage* encoded_image, //

    2热度

    1回答

    我正在使用RecordRTC在我的JavaScript客户端录制一些音频数据。我想通过WebSockets将此音频数据发送到我的Spring RestController。 记录后,我在我的JavaScript客户端有一个Blob对象:Blob {size: 65859, type: "audio/webm"} 我想这个BLOB转换为使用FileReader一个ArrayBuffer对象,看起来像

    0热度

    1回答

    我正在使用webrtc作为第一个教程的web应用程序,我只是试图通过getUserMedia访问我的相机和麦克风。 这里是我的代码: 的index.html: <html> <head> <meta charset="utf-8"> </head> <body> <nav class="navbar navbar-fixed-top navbar

    -1热度

    1回答

    我正在创建屏幕共享应用程序。我尝试过使用WebRTC,但面临着许多挑战,所以我现在正在考虑采用以下方法。 在主机端,使用一些JavaScript库(html2canvas库)连续以毫秒为间隔拍摄页面的截图。 以毫秒为间隔连续发送快照到Web服务器。 在访客端,以毫秒为间隔从Web服务器读取快照。 在开始构建之前,我只想知道这种方法是否可以完美工作,否则会导致一些滞后问题。

    0热度

    1回答

    我需要与原生桌面(win)应用程序和webbrowser建立对等连接,才能传输原始数据。理论上WebRTC似乎是实现这一目标的唯一方法。