Closed. This question is opinion-based。它当前不接受答案。












想改善这个问题吗?更新问题,以便editing this post用事实和引用来回答。

4年前关闭。



Improve this question




我开始尝试在Swift中使用CoreAudio以及用Objective-C编写的“Learning CoreAudio”示例。我注意到的是,使用Swift和CoreAudio有点尴尬...

例如,我必须使用奇怪的UnsafeMutablePointer struct来处理指针,并且CoreAudio中有很多指针...此外,在设置和获取属性时,您经常使用sizeof(),但是sizeof()返回Int,而属性获取和设置函数需要UInt32所以我必须要做一些像UInt32(sizeof(variable.dynamicType))这样的工作才能正常工作,还有很多奇怪的事情要发生……

所以我开始考虑是否可以在Obj-C和Swift中的所有应用程序UI中编写Core Audio代码?使用Obj-C而不是Swift会遇到性能瓶颈吗?还是为了兼容性和性能我应该坚持使用Swift吗?

最佳答案

核心音频是基于C的API,因此与objC混合使用时可能感觉不太整洁。

但是,您可以编写满足您需求的高级ObjC包装器,这意味着您可以完成CoreAudio所期望的所有工作,然后通过添加桥接器在快速项目中使用它。性能命中率将是荒谬的(我知道苹果公司说swift的执行速度比objC快,但这是一个较低的级别,因此它是无害的。

关于ios - CoreAudio的选择语言,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/38898753/

10-09 02:31