我正在尝试构建一个音乐可视化工具,但我完全没有经验

问题描述

我应该从哪里开始?

我正在尝试为 VJing 等构建实时词干分割音乐可视化工具。
与众不同的是,我想将输入音频流拆分为其词干(通过算法或使用 Spleeter 之类的方法),然后使用每个词干数据来控制可视化的不同方面。

例如:

  1. 用于播放 BPM 同步视频的独立鼓。
    • 我希望通过以固定 BPM(例如 60)制作短循环视频,然后通过检测流的 BPM,调整视频的播放速度,使视频同步来实现这一点。
  2. 独立的合成流可以控制 DMX 灯。
    • 我想尝试将此数据编码到上述视频的最后一行像素中。通过从像素读取颜色、强度和运动数据,可以实时读取运动和时间并将其发送到灯。我这样做是为了让用户可以将场景所需的所有数据编码到一个视频文件中。
  3. 孤立的人声可以同步并显示在屏幕上使用 MusixMatch.
  4. 可以将孤立的低音线解析为 MIDI 数据并在屏幕上进行可视化。
  5. 以上所有内容均可实时控制。

现在的问题是我对编程相对缺乏经验。我不知道从哪里开始。使用哪种语言、哪种 IDE、如何显示视觉效果、如何与音频输入流交互、如何使用 DMX 以及如何可视化 MIDI 数据。我知道这目前有点超出我的理解范围,但我会使用正确的资源进行管理。请给我一些关于从哪里开始这样的项目的建议。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)