音频缓冲区和视频缓冲区的呈现时间不相等

问题描述

我正在尝试使用 AVFoundation 创建一个可以进行实时视频和音频录制的应用。 同样使用 AVAssetWriter 我正在将缓冲区写入本地文件

对于视频 CMSampleBuffer,我使用 AVCaptureVideoDataOutputSampleBufferDelegate 中的 AVCaptureSession 输出,这很简单。

对于音频 CMSampleBuffer,我正在从 AudioUnit 记录回调创建缓冲区。 我计算音频缓冲区的呈现时间的方式如下:

        var timebaseInfo = mach_timebase_info_data_t(numer: 0,denom: 0)
        let timebaseStatus = mach_timebase_info(&timebaseInfo)
        if timebaseStatus != KERN_SUCCESS {
            debugPrint("not working")
            return
        }
        let hostTime = time * UInt64(timebaseInfo.numer / timebaseInfo.denom)
        let presentationTIme = CMTime(value: CMTimeValue(hostTime),timescale: 1000000000)
        let duration = CMTime(value: CMTimeValue(1),timescale: CMTimeScale(self.sampleRate))

        var timing = CMSampleTimingInfo(
            duration: duration,presentationTimeStamp: presentationTIme,decodeTimeStamp: CMTime.invalid
        )

self.sampleRate 是在录制开始时改变的变量,但大多数时候是 48000

获取视频和音频的 CMSampleBuffers 时,演示时间有很大的不同。

音频 - CMTime(value: 981750843366125,timescale: 1000000000,flags: __C.CMTimeFlags(rawValue: 1),epoch: 0)

视频 - CMTime(value: 997714237615541,epoch: 0)

这会在尝试将缓冲区写入文件时产生很大的差距。

我的问题是

  1. 我是否正确计算了音频缓冲区的呈现时间?如果是这样,我错过了什么?
  2. 如何确保音频和视频在同一时间区域内(我知道它们之间应该有很小的毫秒差异)

解决方法

好吧,这是我的错。 正如评论中的 Rhythmic Fistman 所建议的那样,我的时间计算被截断了:

let hostTime = time * UInt64(timebaseInfo.numer / timebaseInfo.denom)

改成这个计算就解决了

let hostTime = (time * UInt64(timebaseInfo.numer)) / UInt64(timebaseInfo.denom)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...