2014-06-07 123 views
0

我正尝试构建可以从两侧传输视频(即类似视频通话)的移动应用程序。通过Websockets进行视频流式传输

我看着webrtc,但那还没有准备好用于移动原生应用,反正webrtc正在做的是让浏览器直接捕获相机和音频,而不需要插件等。但在本地移动应用捕捉相机和音频isn这个问题并且基本上需要非常低的延迟和双重传输层。在许多文章和地方,我读到关于使用webrtc的webrtc。

所以我想我可以使用websockets流式传输视频。这是正确的还是我错过了什么?

据我所知,还有一个不同点,即webrtc直接客户端到客户端...而websocket将客户端服务器客户端,有无论如何,以避免它。而这意味着它的延迟时间。

回答

0

你错过了什么。

  • webRTC在手机上运行得非常好。在webrtc.org的参考代码(appRTCDEMO)中有iOS和Android的示例/白客户端,以及多个应用程序。最后一个已被宣布出现。在

  • 从流中获取视频和音频流是媒体API的一部分,而不是每个say(getusermedia)的webRTC API。

  • webRTC实际上是等式的p2p连接(RTCPeerConnection:传输和防火墙遍历)和媒体引擎(编码,打包,加密)以及您正在寻找的内容。

  • webSockets只是一个传输机制。它不处理防火墙/自然穿越,媒体处理和打包/分块,然后您可以在应用程序级别实施。

  • 信号发送而言,webRTC并没有指定/强加任何协议,看似常见的做法是建立一个信令服务器。该应用程序通常使用Web套接字或XHR或其他方式连接到该服务器以执行原始握手/呼叫设置。许多应用程序通过使用像socket.io这样的库来抽象这个。

+0

好的。精细。那么为什么我会在websocket上使用webrtc? Websocket还可以提供我正在寻找的基本内容,因为webrtc尚未准备好在本地移动应用程序中使用。为什么我不应该用websocket?是的,它不是p2p,但在延迟上会有多大的差异? –

相关问题