zoukankan      html  css  js  c++  java
  • 【读书笔记】iOS-音频设备访问

    音频的输入是通过麦克风实现,音频的输出是通过扬声气实现的。在iOS系统中无法直接操控麦克风和扬声器,苹果提供了丰富的音频API。

    一,音频API介绍

    在iOS和Mac OS X上开发音频应用,主要有两个框架可以使用,AVFoundation是基于Objective-C的高层次框架,被设计成向那此以一般的基本使用方式来使用音频的开发者提供API。而Core Audio是基于C的低层次多个框架的集合,Core Audio可以实现对于音频更加全面的控制,可以实现混合多种声音,编解码音频数据,访问声道元数据等,Core Audio还提供一些音频处理和转化的工具。

     

    二,AVFoundation

    在AVFoundation框架中AVAudioPlayer类可以实现一般音频播放,用于播放超过5s的声音,只能播放本地的声音,不能播放网络媒体文件。

     

     

     

     

    参考资料:《iOS传感器应用开发最佳实践》

     
  • 相关阅读:
    TDengine社区版
    进程&线程
    I2总线
    S3C2440的GPIO编程
    NPN&PNP
    旁路电容和去耦电容
    战胜C语言中令人头疼的问题
    今天神经有点大。。
    JZs3c2440裸板程序GPIO操作总结
    JZs3c2440学习笔记一
  • 原文地址:https://www.cnblogs.com/yang-guang-girl/p/9044345.html
Copyright © 2011-2022 走看看