mediastream

    1热度

    1回答

    我正在创建MediaStream对象,并使用captureStream()函数从画布添加视频轨道。这工作正常。 但是我试图添加音频作为视频元素的单独轨道。我似乎无法找到从html视频元素获取AudioTrack对象的方法。 目前HTMLMediaElement.audioTracks在Chrome中不受支持。根据mozilla开发人员网站,我应该能够使用HTMLMediaElement.captu

    0热度

    1回答

    我正在制作一个记录视频的程序,并且每隔5秒将其blob发送到一个套接字。它似乎工作正常,但是当我查看由服务器接收的文件时,我看到由套接字客户端写入的所有程序都是空的= 0kb。你能帮我吗?我的HTML/JS和PHP代码如下。下面 <!DOCTYPE html> <html lang="en"> <head> <title>WebRTC Video Recording using M

    0热度

    1回答

    我有一个Ubuntu的服务器16.04,正确更新到目前为止。 我试图通过使用clipbucket主平台托管开源媒体流媒体网站。但是在安装其中一些软件之后,它们在预先需要的软件&上漏掉了插件。其他像php-imagemagick这样的软件无法通过“sudo apt-get install php-imagick”找到 有没有什么方法可以一次设置所有必需的软件和插件?

    5热度

    1回答

    我正尝试使用ffmpeg.js将webM文件转换为mp4。 我正在从画布上录制视频(叠加了一些信息)并录制了视频中的音频数据。 stream = new MediaStream(); var videoElem = document.getElementById('video'); var videoStream = videoElem.captureStream(); stream.add

    2热度

    1回答

    我正在使用twilio API在emberjs应用程序中实现屏幕共享,我成功地能够共享屏幕并切换停止它。这里是我的代码 - > this.get('detectRtc').isChromeExtensionAvailable(available => { if (available) { const { twilioParticipant } = this.get('part

    0热度

    1回答

    我想在离子应用程序中获得我的后置摄像头的视频流。 为此,我使用getUserMedia,可以正确使用前置摄像头。 当我改变面向模式为“环境”,我得到这个错误: Unknown constraint named facingMode rejected ConstraintNotSatisfiedError 在我的应用离子我已经安装了故宫包“的WebRTC适配器”。 这里是我的代码从后置摄像头获取流:

    0热度

    2回答

    我能够使用socket.io发送流blob到节点js服务器。但是,它在更新视频播放器中的blob数据时闪烁。我希望它运行平稳。如何在不眨眼视频播放器的情况下发送数据。这里是我的服务器代码 var express = require("express"); var app = express(); var http = require("http").Server(app); var io =

    0热度

    2回答

    是否有一种已知的方式将浏览器中的视频流重新导入到WebAssembly中?我知道你可以使用HTML画布进行帧捕获,但我不知道如何获得整个流(音频/视频)并将其发送到我的WebAssembly应用程序。

    0热度

    1回答

    我目前正在构建WebRTC应用程序,并希望收集一些统计信息以评估我的解决方案。我感兴趣的一个指标是接收到的音频(和视频)流的当前带宽。我能够在chrome://webrtc-internals/(OPUS)找到当前使用的编解码器,但我无法找到有关当前流的质量/带宽(例如128kbit/s)的数字。 我已经搜索了这些数字的RTCPeerConnection对象,但没有找到一些。 XXX.RTCcon

    1热度

    1回答

    我使用getAudioTracks()从视频元素获取音频。然后,我需要放大(增加音量)这个audioTrack,然后我将它添加到画布上,使用0123rt,并使用webrtc将其同时流出。 有没有一种方法可以在客户端使用javascript做到这一点?