问题描述
我正在尝试使用 AVFoundation 创建一个可以进行实时视频和音频录制的应用。 同样使用 AVAssetWriter 我正在将缓冲区写入本地文件。
对于视频 CMSampleBuffer
,我使用 AVCaptureVideoDataOutputSampleBufferDelegate
中的 AVCaptureSession
输出,这很简单。
对于音频 CMSampleBuffer
,我正在从 AudioUnit 记录回调创建缓冲区。
我计算音频缓冲区的呈现时间的方式如下:
var timebaseInfo = mach_timebase_info_data_t(numer: 0,denom: 0)
let timebaseStatus = mach_timebase_info(&timebaseInfo)
if timebaseStatus != KERN_SUCCESS {
debugPrint("not working")
return
}
let hostTime = time * UInt64(timebaseInfo.numer / timebaseInfo.denom)
let presentationTIme = CMTime(value: CMTimeValue(hostTime),timescale: 1000000000)
let duration = CMTime(value: CMTimeValue(1),timescale: CMTimeScale(self.sampleRate))
var timing = CMSampleTimingInfo(
duration: duration,presentationTimeStamp: presentationTIme,decodeTimeStamp: CMTime.invalid
)
self.sampleRate
是在录制开始时改变的变量,但大多数时候是 48000
。
获取视频和音频的 CMSampleBuffers
时,演示时间有很大的不同。
音频 - CMTime(value: 981750843366125,timescale: 1000000000,flags: __C.CMTimeFlags(rawValue: 1),epoch: 0)
视频 - CMTime(value: 997714237615541,epoch: 0)
这会在尝试将缓冲区写入文件时产生很大的差距。
我的问题是
- 我是否正确计算了音频缓冲区的呈现时间?如果是这样,我错过了什么?
- 如何确保音频和视频在同一时间区域内(我知道它们之间应该有很小的毫秒差异)
解决方法
好吧,这是我的错。 正如评论中的 Rhythmic Fistman 所建议的那样,我的时间计算被截断了:
let hostTime = time * UInt64(timebaseInfo.numer / timebaseInfo.denom)
改成这个计算就解决了
let hostTime = (time * UInt64(timebaseInfo.numer)) / UInt64(timebaseInfo.denom)