我在玩AVAudioFile和AVAudioPlayerNode。

我已经实现了一个自定义的流协议,该协议可以接收音频块并处理所有缓冲部分,但是在不使用文件系统的情况下,我无法播放第一个块(我现在不想使用FS)。

这是:当我将数据写入临时文件并使用AVAudioFile加载它时,它工作正常(然后我初始化一个AVAudioBuffer并使用AVAudioFile.readIntoBuffer和最后的AVAudioPlayerNode.scheduleBuffer)。但是我无法直接从第一个块(NSData)加载缓冲区。

我应该实现自定义NSURLProtocol并尝试从自定义NSURL初始化AVAudioFile吗?

func play( data: NSData ) {
var audioFile: AVAudioFile
var audioBuffer: AVAudioPCMBuffer
// writing the data
let destPath = NSTemporaryDirectory() + "chunk.mp3"
data.writeToFile( destPath, atomically: true )
// initializing the AVAudioFile
audioFile = AVAudioFile( forReading: NSURL(string: destPath)!)
// initializing the AVAudioPCMBuffer
audioBuffer = AVAudioPCMBuffer(PCMFormat: audioFile.processingFormat,
                               frameCapacity: UInt32(data.length))
audioFile.readIntoBuffer( audioBuffer )
/*
    I didn't put any AVAudioPlayerNode/AVAudioEngine in this code to keep it simple and describe the situation,
    anyway this works fine when everything's properly initialized:
*/
player.scheduleBuffer( audioBuffer, completionHandler: nil )
}

最佳答案

documentation:

若要播放流式音频内容(例如通过网络连接),请与“音频队列服务”一起使用“音频文件流服务”。音频文件流服务从网络比特流中解析常见音频文件容器格式的音频数据包和元数据。您也可以使用它来解析磁盘文件中的数据包和元数据。

这里的关键点是使用音频文件服务将数据放入缓冲区并使用音频队列服务将其排队。联网部分通常使用CFNetwork API完成,该API比NSURLProtocol低得多。

Apple示例代码“AudioFileStreamExample”说明了流音频的客户端和服务器实现。这将是一个有效的起点。

关于ios - AVAudioFile从内存?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/34988078/

10-09 08:03