webRTC + MCU:听到我的音频延迟两次

问题描述

想象一下,一个房间里有50位发言人。 假设像janus这样的服务器会将视频和音频信号组合成一个网格并显示并发出一个流(音频和视频)。 对于观众来说,这很棒,因为他们只需要下载一个A / V流。 但是演讲者呢?

如果我是扬声器,并且希望看到与观众相同的网格,我会看到我延迟(没关系),并且还听到我的声音延迟。这是一个很大的问题,因为我听不懂自己的讲话。

有什么方法可以解决这个问题:

  1. 发言人在讲话时禁用收入音频(不是很友好)
  2. 分别发送音频和视频信号-仅当所有音频信号都单独发送到客户端时,这才有意义,因为只有这样客户端才能禁用特定的音频信号。但是随后,客户端将不得不下载50倍的音频流。这也是一个不好的解决方

还有其他方法吗?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)