swift – 将CoreMIDI输入与AVAudioUnit一起使用

我正在尝试实现一些看起来应该很简单的东西:在Mac应用程序中侦听MIDI消息,并使用它们来播放现有AVAudioUnit乐器中的音符.

假设:我需要在与我的CoreMIDI客户端关联的MIDIReadBlock(通过MIDIInputPortCreateWithBlock与MIDIClientRef)和我可以从我的AVAudioUnit的AUAudioUnit(通过scheduleMIDIEventBlock)获得的AUScheduleMIDIEventBlock之间建立桥梁.这似乎比它应该更复杂,因为我将使用原始MIDI数据 – 我觉得音频单元必须支持某种类型的MIDI抽象,易于使用CoreMIDI,但我找不到任何相关的例子这个的.也许有一种方法可以将MIdioutputPortCreate与AV / AUAudioUnit一起使用?

我正在寻找的是一个将MIDI输入直接传输到音频单元(理想情况下使用Swift 3)的工作示例,但如果您知道任何相对较新的相关资源,请分享这些链接.这些API的文档稀疏性非常令人沮丧.谢谢!

在你的MIDIReadBlock循环中通过收到的数据包.根据每个数据包的MIDI状态,将相应的设备事件(例如,注释)发送到audioUnit.

例如

osstatus = MusicDeviceMIDIEvent(audioUnit,midiCmd...

相关文章

软件简介:蓝湖辅助工具,减少移动端开发中控件属性的复制和粘...
现实生活中,我们听到的声音都是时间连续的,我们称为这种信...
前言最近在B站上看到一个漂亮的仙女姐姐跳舞视频,循环看了亿...
【Android App】实战项目之仿抖音的短视频分享App(附源码和...
前言这一篇博客应该是我花时间最多的一次了,从2022年1月底至...
因为我既对接过session、cookie,也对接过JWT,今年因为工作...