Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
OS X / iOS - 使用 AudioConverterFillComplexBuffer 进行缓冲区的采样率转换
我正在为一个项目编写一个 CoreAudio 后端名为 XAL 的音频库 http libxal googlecode com 输入缓冲器可以具有不同的采样率 我使用单个音频单元进行输出 想法是在将缓冲区发送到音频单元之前对其进行转换和混合
iphone
MacOS
coreaudio
samplerate
audioconverter
使用 AUGraph 播放麦克风的声音
当我使用AUGraph实现麦克风播放声音时 我有一个问题 在设备 iphone 3g 中 我只能从耳机的右侧听到 但在模拟器中效果很好 我可以从耳机的两侧听到声音 这是我用来将输入连接到输出的代码 AUGraphConnectNodeInp
iphone
Audio
media
coreaudio
audiounit
音频会话服务: kAudioSessionProperty_OverrideAudioRoute 具有不同的输入和输出路由
我正在摆弄音频会话服务 我正在尝试控制音频路由设置AudioSessionSetProperty kAudioSessionProperty OverrideAudioRoute as kAudioSessionOverrideAudioR
iphone
Objectivec
ios
coreaudio
audiotoolbox
iOS 音量控制的最佳实践?
硬件音量控制 我试图了解对于大多数静音但偶尔发出声音的应用程序的最佳实践是什么 此类应用程序可以利用 iOS 设备上的侧面音量控制 并避免需要在 NSVolume 控件小部件中进行设计 我认为这不如硬件侧面音量控制那么方便 该方法适用于 M
iphone
ios
iPad
ios5
coreaudio
录音应用程序的 iOS 多任务处理
我正在编写一个录制音频的应用程序 我正在研究在录音时支持多任务处理 在后台 的可行性 答案似乎是一个no根据我到目前为止所读到的内容 特别是因为该程序旨在释放切换时正在使用的任何系统资源 所以我想知道 是否可以让用户切换到 iOS 中的另一
iphone
ios
coreaudio
为什么我的 AudioQueueOutputCallback 不会被调用?
我正在使用音频队列服务 API http developer apple com library mac documentation MusicAudio Reference AudioQueueReference Reference re
iphone
ios
coreaudio
audioqueueservices
iOS:音频单元、OpenAL 与 Core Audio
有人可以向我解释一下 OpenAL 如何适应 iPhone 上的声音模式吗 似乎有不同级别的 API 用于处理声音 更高层次的内容很容易理解 但我的理解越往下越模糊 有核心音频 音频单元 OpenAL 这些之间有什么联系呢 openAL 是
ios
coreaudio
openal
audiounit
AUGraph 弃用是否意味着不再有音频渲染回调?
我有一个带有详细渲染回调的应用程序 我怀疑是否可以使用 AVAudioEngine 来实现 无论如何 要将我的 AUGraph 渲染回调 具有多个总线 与 AVAudioEngine 一起使用吗 有示例代码吗 The 音频单元API htt
Audio
coreaudio
avaudioengine
ios13
augraph
OS X 上的 Haskell 音频输出?
我希望能够从 Haskell 输出音频 我目前在 OS X Snow Leopard 上使用 GHC 6 10 我尝试过构建 jack 库 使用 JackOSX 和 PortAudio 库 但它们似乎都没有效果 有没有一种相对简单的方法可以
MacOS
Audio
Haskell
coreaudio
AudioQueue内存播放示例
有人知道使用 AudioQueue 从内存源播放的任何示例吗 我可以从文件中找到播放的所有示例 使用 AudioFileReadPackets 但在我的特定情况下 我自己实时生成数据 因此理想情况下 我想自己将数据排入队列 而不是使用回调将
iphone
iPad
coreaudio
audioqueue
Core Audio (iOS 5.1) Reverb2 属性不存在,错误代码 -10877
我正在玩苹果的示例项目 LoadPresetDemo 我添加了混响音频单元AudioUnit kAudioUnitSubType Reverb2如图所示 这是唯一可用的 iOS 混响 在 CoreAudio 头文件 AudioUnitPar
ios
coreaudio
播放时拔掉耳机会导致 iPhone 应用程序出现错误
我正在创建一个基于的应用程序在这里说话示例应用程序 如果耳机已插入或默认通过扬声器播放 我希望音频通过耳机播放 我使用了底部的代码来实现这一点 并且除非在播放过程中拔掉耳机 否则它工作正常 此时播放结束 没关系 问题是 当我再次点击播放时
iphone
ios
coreaudio
将音频样本从 Float32 移位到 SInt16 会导致严重削波
我对 iOS 及其 C 基础很陌生 但对一般编程并不熟悉 我的困境是这样的 我正在基于复杂 AudioUnits 的应用程序中实现回声效果 该应用程序需要混响 回声和压缩等 但是 只有当我使用特定的时 回声才能正常工作音频流基本描述我的应用
Objectivec
iPad
ios5
coreaudio
audiounit
OSStatus NSOSStatusErrorDomain
当我使用获取该属性时收到以下错误 AudioSessionGetProperty kAudioSessionProperty CurrentHardwareSampleRate size myAudioDescription mSample
Objectivec
ios
coreaudio
avaudiosession
iOS应用程序不会死,退出后写入控制台并播放声音
我的应用程序有某种僵尸问题 不是 NSZombie 问题 就像是死而复生的问题 我首先注意到 在调试会话之后 当我去跑步时 iPhone 上的音乐会每隔约 7 分钟暂停一次 当我解锁设备时 应用程序名称会在状态栏中闪烁红色 就好像它正在运行
ios
cocos2diphone
coreaudio
undefinedbehavior
iPhone 扩展音频文件服务,mp3 -> PCM -> mp3
我想使用 Core Audio 扩展音频文件服务框架来读取 mp3 文件 将其作为 PCM 进行处理 然后将修改后的文件作为 mp3 文件写回 我能够将 mp3 文件转换为 PCM 但无法将 PCM 文件作为 mp3 写回 我已经跟踪并分析
iphone
Objectivec
coreaudio
从核心音频框架开始
对于我打算很快开始的项目 我需要播放压缩和未压缩的音频文件 为此 我打算使用 Core Audio 框架 然而 我之前没有音频编程经验 我真的不知道从哪里开始 是否有任何初学者级别的资源或示例项目可以演示如何使用 Core Audio 构建
c
coreaudio
使用来自原始 PCM 16000 采样率流的 CMSampleTimingInfo、CMSampleBuffer 和 AudioBufferList
我从外部接收音频数据和大小 音频似乎是线性 PCM 符号为 int16 但是当使用资产写入器录制此音频时 它会保存到高度失真和更高音调的音频文件中 define kSamplingRate 16000 define kNumberChann
ios
coreaudio
AVAssetReader 读取音频,然后失败
我的应用程序读取音频并在生产者 消费者设置中播放它 消费者线程请求新样本渲染到硬件 生产者线程使用 AVAssetReader 将音频数据从磁盘读取到其缓冲区中 生产者线程循环运行 检查是否需要读取更多样本 制作者的缓冲区大小等于 4 秒的
Objectivec
ios
coreaudio
AVFoundation
avaudiosession
AudioQueue 吃掉了我的缓冲区(前 15 毫秒)
我正在以编程方式生成音频 我听到缓冲区之间一片寂静 当我将手机连接到示波器时 我发现每个缓冲区的前几个样本都丢失了 取而代之的是沉默 这种沉默的长度从几乎没有到长达 20 毫秒不等 我的第一个想法是我原来的回调函数花费了太多时间 我用尽可能
iphone
c
Audio
coreaudio
«
1
2
3
4
5
6
7
»