我正尝试构建可以从两侧传输视频(即类似视频通话)的移动应用程序。通过Websockets进行视频流式传输
我看着webrtc,但那还没有准备好用于移动原生应用,反正webrtc正在做的是让浏览器直接捕获相机和音频,而不需要插件等。但在本地移动应用捕捉相机和音频isn这个问题并且基本上需要非常低的延迟和双重传输层。在许多文章和地方,我读到关于使用webrtc的webrtc。
所以我想我可以使用websockets流式传输视频。这是正确的还是我错过了什么?
据我所知,还有一个不同点,即webrtc直接客户端到客户端...而websocket将客户端服务器客户端,有无论如何,以避免它。而这意味着它的延迟时间。
好的。精细。那么为什么我会在websocket上使用webrtc? Websocket还可以提供我正在寻找的基本内容,因为webrtc尚未准备好在本地移动应用程序中使用。为什么我不应该用websocket?是的,它不是p2p,但在延迟上会有多大的差异? –