WebRTC 多流录制

问题描述

我目前正在尝试构建一个 WebRTC 流媒体架构,其中包含多个用户从同一“房间”中的摄像头流式传输内容,服务器端的 SFU/MCU 会“记录”传入的视频数据包,并将它们合并为一个图像并将其作为 RTMP 或 HLS 重新分发给查看者以增加可扩展性。

在对此进行一些初步研究后,Janus Gateway 似乎非常适合这一点,因为它在整个空间中被广泛采用 + 其(看似)可扩展的插件架构。因此,我目前正试图找出适合我的用例的推荐架构是什么样的。 我查看了以下插件

虽然 Janus 和流媒体插件似乎是在房间里的一组脚轮中获得广播方面的良好开端,但我正在尝试拼凑如何将不同的视频源组合成一个组合(水平拆分例如,如果有 2 个脚轮处于活动状态)并将最终结果重新传输为针对广播消耗优化的内容,例如 HLS。我可以想象的一些方法

  • 实现一个自定义 Janus 插件,该插件对网关本身的传入缓冲区进行转码
  • 通过 RTP 将传入的数据包转发到转码服务器
    • 在这种特定情况下,我不确定什么是最好的实现方式?视频帧是不同的轨道吗?我能否将它们全部流式传输到同一个端口并让 ffmpeg 或类似的东西为我处理合并?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)