ios – AVSpeechSynthesizer发音到音频文件

我在我的应用程序中使用AVSpeechSynthesizer,我正在寻找将口头文本保存到音频文件或AVAsset.我经历了苹果的文档,没有看到任何东西,但是我想提出一个问题来确保.以下是我当前的代码.
AVSpeechUtterance * utterance = [AVSpeechUtterance speechUtteranceWithString:textView.text];
float rate = [speedSlider value]/1.5;
utterance.rate =  rate;
[speechSynthesizer speakUtterance:utterance];

解决方法

可以记录您的应用程序生成的音频(而不是其他应用程序).虽然AVSpeech没有提供API来保存生成的音频,但Apple拥有可以完成该功能的其他API.解决方案可能不像你想要的那么干净,但它应该可以工作.

苹果提供了一个名为Audio Unit Framework的框架来管理高级音频处理和录音.这是iOS SDK中唯一可以同时播放和录制音频的框架(据我所知). Audio Unit Hosting Guide看起来很有前途,Audio Mixer Sample App也是如此.

注意:我没有尝试使用音频单元框架与AVSpeechSynthesizer(它可能或可能不工作).然而,考虑到AVSpeechSynthesizer与CoreAudio很好,那么它更有可能与AudioUnits一起工作.

如果上述解决方案不起作用,那么一个简单的解决方法就可以做到这一点. AVSpeechSynthesizer不需要任何网络连接正常工作,因此在许多情况下您可能不需要保存音频.相反,您可以保存文本以供以后使用NSFileManager:

Nsstring *textToSynthesize = @"Just what do you think you are doing,Dave?";

NSError *error;
NSArray *paths = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory,NSUserDomainMask,YES); 
Nsstring *documentsDirectory = [paths firstObject];

[textToSynthesize writetoFile:[documentsDirectory stringByAppendingPathComponent:@"synthText.txt"] atomically:YES encoding:NSUTF8StringEncoding error:&error];

当您准备好合成文本时,只需从文件中读取并将其插回AVSpeechSynthesizer.我确实意识到这种解决方案在所有情况下都不起作用或适用(例如,如果您需要将音频文件发送给某人).

这些只是解决这个问题的几个可能的解决方案,这两个解决方案都是解决方法,根据您的具体情况可能或可能无法正常工作.因人而异.祝你好运!

相关文章

UITabBarController 是 iOS 中用于管理和显示选项卡界面的一...
UITableView的重用机制避免了频繁创建和销毁单元格的开销,使...
Objective-C中,类的实例变量(instance variables)和属性(...
从内存管理的角度来看,block可以作为方法的传入参数是因为b...
WKWebView 是 iOS 开发中用于显示网页内容的组件,它是在 iO...
OC中常用的多线程编程技术: 1. NSThread NSThread是Objecti...