首页 文章

视频流通过Websockets

提问于
浏览
1

我正在尝试构建可以从双方传输视频的移动应用程序(例如视频通话) .

我查看了webrtc,但那还没有准备好移动本机应用程序,无论如何webrtc正在做的是允许浏览器直接捕获相机和音频而不需要插件等 . 但在本机移动应用程序捕获相机和音频不是问题并且基本上需要非常低延迟和双传输层 . 在许多文章和地方,我读到了关于在websockets上使用webrtc .

所以我想我可以使用websockets流式传输视频 . 它是正确的还是我错过了什么?

我知道webrtc直接客户端到客户端还有一个区别......而websocket就是客户端 - 服务器 - 客户端,无论如何都要避免它 . 这意味着延迟的条件是什么意思 .

1 回答

  • 0

    你错过了什么 .

    • webRTC在移动设备上运行良好 . 在webrtc.org的参考代码(appRTCDEMO)中有iOS和Android的示例/白色客户端,以及多个应用程序 . 最后一个已经宣布出现了.in

    • 从流中获取视频和音频流是媒体API的一部分,而不是webRTC API(getusermedia) .

    • webRTC实际上是p2p连接(RTCPeerConnection:传输和防火墙遍历)以及等式的媒体引擎(编码,打包,加密)以及您正在寻找的内容 .

    • webSockets只是一种传输机制 . 它不处理您在应用程序级别实现的防火墙/ nat遍历,媒体处理和打包/分块 .

    就信令而言,webRTC没有指定/强加任何协议,看似常见的方法是 Build 信令服务器 . 应用程序通常使用Web套接字或XHR或其他方式连接到该服务器以执行原始握手/调用设置 . 许多应用程序通过使用socket.io等库来抽象它 .

相关问题