Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
iPhoneOS 支持 kAudioFormatFlagIsFloat 吗?
我正在编写一个 iPhone 应用程序 它使用 I O 音频单元同时录制和播放音频苹果的建议 http developer apple com iphone library codinghowtos AudioAndVideo index
iphone
audiounit
OSX AudioUnit SMP
我想知道是否有人有编写利用多核处理器和 或对称多处理的 HAL AudioUnit 渲染回调的经验 我的场景如下 子类型的单个音频组件kAudioUnitSubType HALOutput 连同它的渲染回调 负责附加合成n具有独立的单独变化
MacOS
multiprocessing
coreaudio
audiounit
为什么我无法更改 AU 多通道混音器输入范围中的元件/总线数量?
UPDATE 我正在更改我的代码以更简化的方式说明问题 我还有一个小错误 虽然没有阻止问题的发生 但确实增加了一些混乱 我正在 iOS 中实例化多通道混音器 AU kAudioUnitSubType MultiChannelMixer 并执
ios
coreaudio
audiounit
使用音频单元录制我的 iPhone 应用程序播放的声音
我今天有很多有趣的事情iOS 和音频单元并发现了很多有用的资源 包括在内 首先 我对某些事情感到困惑 是否真的有必要创建一个音频图 with 混合器单元录制应用程序播放的声音 或者播放声音就足够了ObjectAL https github
ios
Audio
audiorecording
audiounit
如何将 iPod 库资源连接到音频队列服务并使用音频单元进行处理?
我需要处理来自 iPod 库的音频 读取 iPod 库资源的唯一方法是 AVAssetReader 要使用音频单元处理音频 它需要采用立体声格式 因此我有左声道和右声道的值 但是 当我使用 AVAssetReader 从 iPod 库读取资
ios
coreaudio
audiounit
使用 AUGraph 播放麦克风的声音
当我使用AUGraph实现麦克风播放声音时 我有一个问题 在设备 iphone 3g 中 我只能从耳机的右侧听到 但在模拟器中效果很好 我可以从耳机的两侧听到声音 这是我用来将输入连接到输出的代码 AUGraphConnectNodeInp
iphone
Audio
media
coreaudio
audiounit
iOS:音频单元、OpenAL 与 Core Audio
有人可以向我解释一下 OpenAL 如何适应 iPhone 上的声音模式吗 似乎有不同级别的 API 用于处理声音 更高层次的内容很容易理解 但我的理解越往下越模糊 有核心音频 音频单元 OpenAL 这些之间有什么联系呢 openAL 是
ios
coreaudio
openal
audiounit
将音频样本从 Float32 移位到 SInt16 会导致严重削波
我对 iOS 及其 C 基础很陌生 但对一般编程并不熟悉 我的困境是这样的 我正在基于复杂 AudioUnits 的应用程序中实现回声效果 该应用程序需要混响 回声和压缩等 但是 只有当我使用特定的时 回声才能正常工作音频流基本描述我的应用
Objectivec
iPad
ios5
coreaudio
audiounit
iOS 音频单元会切断高于某个频率的声音
我在接收声音 UDP WiFi 时遇到一些问题 我想尽可能清除它 所以一开始我想切断高于某个频率的声音 显然 我从套接字获取了原始数据 然后将其复制到输出缓冲区 我确信应该在那里进行精确的切断 你能建议我吗 我当前的回调代码 static
ios
Audio
audiounit
在 iOS 中使用 Core Audio 同时播放和录制
我需要使用 Core Audio 同时播放和录制 我真的不想使用 AVFoundation API AVAudioPlayer AVAudioRecorder 来执行此操作 因为我正在制作音乐应用程序 并且不能有任何延迟问题 我查看了App
iphone
ios
coreaudio
audiounit
audioqueueservices
iOS 应用程序的多轨 mp3 播放
我正在做一个应用程序 涉及以多轨格式 鼓 人声 吉他 钢琴等 播放歌曲 我不需要对每个轨道进行任何花哨的音频处理 我需要做的就是播放 暂停和静音 取消静音每个轨道 我一直在使用 AVAudioPlayer 的多个实例 但在执行设备测试时 我
Objectivec
ios
coreaudio
openal
audiounit
iOS 音频单元 - 创建立体声正弦波
周末我在学习如何在 iOS 上进行音频合成编程时遇到了障碍 我在 iOS 上进行开发已经好几年了 但我刚刚进入音频合成方面 现在 我只是编写演示应用程序来帮助我学习这些概念 我目前已经能够在音频单元的播放渲染器中构建和堆叠正弦波 没有任何问
Objectivec
ios
Audio
coreaudio
audiounit
调用AUGraphStart播放时接收kAUGraphErr_CannotDoInCurrentContext
我正在与AUGraph和 Audio Units API 用于在我的 iOS 应用程序中播放和录制音频 现在我遇到一个罕见的问题AUGraph无法启动 出现以下错误 结果 kAUGraphErr CannotDoInCurrentConte
ios
audiounit
audiotoolbox
iOS - AudioOutputUnitStop 导致应用程序冻结并发出警告
有时执行 AudioOutputUnitStop inputUnit 导致应用程序冻结约 10 15 秒并显示以下控制台消息 WARNING 0x3b58918c AURemoteIO cpp 1225 Stop AURemoteIO St
ios
coreaudio
audiounit
novocaine
如何设置内置输入(OSX Core Audio / Audio Unit)的输入电平(增益)?
我有一个 OSX 应用程序 它使用音频单元记录音频数据 音频单元的输入可以设置为任何可用的输入源 包括内置输入 问题是 我从内置输入获得的音频经常被削波 而在 Audacity 甚至 Quicktime 等程序中 我可以调低输入电平 但不会
Objectivec
MacOS
coreaudio
audiounit
iOS:处理来自 AVPlayer 视频轨道的音频
我计划在我的 iOS 应用程序中重构我的录音系统 语境 到目前为止 我分别录制视频和音频 几乎同时开始录制 录制完成后 在同一系统中 我分别播放视频和音频 在音频上动态应用 AudioUnit 最后 我合并视频和修改后的音频 碰巧两个记录不
ios
video
avplayer
audiounit
audiokit
如何使用 Swift 在 iOS 中同时录制和播放音频?
在 Objective C 中 同时录制和播放音频相当简单 互联网上有大量的示例代码 但我想在 Swift 中使用 Audio Unit Core Audio 同时录制和播放音频 关于使用 Swift 的帮助和示例代码非常少 我找不到任何可
ios
swift
swift2
coreaudio
audiounit
ios音频单元remoteIO录音时播放
我被要求将 VOIP 添加到游戏中 跨平台 因此无法使用 Apple gamekit 来做到这一点 已经有三四天了 我一直在努力让我的注意力集中在音频单元和远程IO上 我忽略了数十个示例等 但每次都只是对输入 PCM 应用简单的算法并在扬声
ios
voip
audiounit
AKAudioPlayer:扬声器没有声音,只有耳机有声音
使用 AudioKit 进行声音管理 我注意到这段非常简单的代码存在问题 错误 import AudioKit class MainViewController UIViewController var audioFile AKAudioF
coreaudio
audiounit
audiokit
iOS AUSampler audiounit - EXS 音频文件的文件路径问题?
遵循苹果文档here我已经能够通过重新创建成功将 GarageBand EXS 采样器乐器加载到我的 iOS 应用程序中的 AUSampler 中 例如我的应用程序目录中的以下路径 Sampler Files Funk Horn Secti
ios
Audio
coreaudio
audiounit
1
2
»