Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何通过扬声器而不是较弱的耳机扬声器播放音频?
我正在学习核心音频 由于某种原因 处理图的声音仅通过弱 耳机 播放 当您将设备放在耳边时 而不是通过 iPhone 的常规扬声器播放 这是设置音频会话的代码 但我看不到它在哪里配置音频路由 void setupAudioSession AV
iphone
ios
iPad
coreaudio
如何用 Cocoa 获得准确的分贝值?
我们正在创建一个应用程序 它可以记录周围的声音 并在声音超过指定分贝时采取必要的措施 为了实现应用程序目标 我们使用 AudioQueueObject h 中的以下方法 void getAudioLevels Float32 levels
cocoa
Audio
coreaudio
decibel
AudioUnitInitialize 返回 -10851 (kAudioUnitErr_InvalidPropertyValue)
假设代码是 status AudioUnitSetProperty unit kAudioUnitProperty StreamFormat kAudioUnitScope Input element format sizeof Audio
Objectivec
MacOS
coreaudio
iOS 6 中使用 AudioFileServices 进行粒度合成
我对我正在开发的声音合成应用程序有疑问 我正在尝试读取音频文件 使用创建随机 颗粒 颗粒合成技术 http en wikipedia org wiki Granular synthesis 将它们放入输出缓冲区 然后能够使用 OpenAL
c
iphone
Objectivec
Audio
coreaudio
当 AudioSessionActive 为 NO 时,无法通过硬件按钮控制 AVAudioPlayer 的音量
我正在构建一个路线导航应用程序 可以播放周期性的简短声音片段 无论屏幕是否锁定 声音都应该播放 应该与其他音乐播放混合 并且应该在播放此音频时使其他音乐闪避 Apple 在 29 20 分钟的 WWDC 2010 session 412 i
Objectivec
coreaudio
avaudioplayer
avaudiosession
Swift 3 LPCM 录音机 |错误:kAudioFileInvalidPacketOffsetError
下面的录音机仅在第一次时有效 如果您尝试第二次录音 则在尝试 AudioFileWritePackets 时会出现错误 kAudioFileInvalidPacketOffsetError 知道为什么会发生这种情况吗 先感谢您 存储库位于此
ios
swift
coreaudio
audiotoolbox
recorder
循环 AVMutableCompositionTrack
我身上有两个音轨 我将它们相互组合起来 如下所示 AVMutableComposition composition AVMutableComposition alloc init AVMutableCompositionTrack comp
ios
cocoatouch
coreaudio
avmutablecomposition
avasset
如何使用 afconvert 将 .caf 转换为 .mp3 格式? [关闭]
Closed 这个问题不符合堆栈溢出指南 help closed questions 目前不接受答案 我正在使用 afconvert 命令行实用程序来转换音频文件 caf to mp3格式 我用过afconvert afconvert f
iphone
coreaudio
iphone:(音频)发布消息以杀死 mediaserverd
我正在使用以下方法播放几种声音 音频服务 https developer apple com library mac documentation AudioToolbox Reference SystemSoundServicesRefer
iphone
Objectivec
iphonesdk30
iossimulator
coreaudio
如何检查 MPMediaItem 是否仅包含音频的 MPMediaType?
我希望我需要进行按位比较 但我不清楚 Objective C 语法是如何完成的 MPMediaType 的枚举定义如下 我需要做的是确保 MPMediaItem 根本不是视频 因为尽管我使用媒体查询过滤到 MPMediaTypeAnyAud
ios
coreaudio
如何为我的音频应用程序获得可靠的定时?
我有一个音频应用程序 其中所有声音生成工作都是通过纯数据 使用 libpd 完成的 我用 swift 编写了一个特殊的音序器 它控制多个序列的开始 停止播放 由合成引擎以纯数据播放 到目前为止 我完全避免在应用程序的任何方面使用 Core
swift
Audio
AVFoundation
coreaudio
libpd
消除录音曲目中当前播放曲目的声音
我希望使用远程 IO 进行音频录制和播放 我对核心音频的理解很差 因为我遵循惊人的音频开源 http theamazingaudioengine com 到目前为止 我可以使用相同的代码进行录制和播放 现在我尝试通过麦克风录制并通过 iPh
iphone
ios
Objectivec
coreaudio
remoteio
OS X / iOS - 使用 AudioConverterFillComplexBuffer 进行缓冲区的采样率转换
我正在为一个项目编写一个 CoreAudio 后端名为 XAL 的音频库 http libxal googlecode com 输入缓冲器可以具有不同的采样率 我使用单个音频单元进行输出 想法是在将缓冲区发送到音频单元之前对其进行转换和混合
iphone
MacOS
coreaudio
samplerate
audioconverter
使用 AUGraph 播放麦克风的声音
当我使用AUGraph实现麦克风播放声音时 我有一个问题 在设备 iphone 3g 中 我只能从耳机的右侧听到 但在模拟器中效果很好 我可以从耳机的两侧听到声音 这是我用来将输入连接到输出的代码 AUGraphConnectNodeInp
iphone
Audio
media
coreaudio
audiounit
音频会话服务: kAudioSessionProperty_OverrideAudioRoute 具有不同的输入和输出路由
我正在摆弄音频会话服务 我正在尝试控制音频路由设置AudioSessionSetProperty kAudioSessionProperty OverrideAudioRoute as kAudioSessionOverrideAudioR
iphone
Objectivec
ios
coreaudio
audiotoolbox
iOS 音量控制的最佳实践?
硬件音量控制 我试图了解对于大多数静音但偶尔发出声音的应用程序的最佳实践是什么 此类应用程序可以利用 iOS 设备上的侧面音量控制 并避免需要在 NSVolume 控件小部件中进行设计 我认为这不如硬件侧面音量控制那么方便 该方法适用于 M
iphone
ios
iPad
ios5
coreaudio
录音应用程序的 iOS 多任务处理
我正在编写一个录制音频的应用程序 我正在研究在录音时支持多任务处理 在后台 的可行性 答案似乎是一个no根据我到目前为止所读到的内容 特别是因为该程序旨在释放切换时正在使用的任何系统资源 所以我想知道 是否可以让用户切换到 iOS 中的另一
iphone
ios
coreaudio
为什么我的 AudioQueueOutputCallback 不会被调用?
我正在使用音频队列服务 API http developer apple com library mac documentation MusicAudio Reference AudioQueueReference Reference re
iphone
ios
coreaudio
audioqueueservices
iOS:音频单元、OpenAL 与 Core Audio
有人可以向我解释一下 OpenAL 如何适应 iPhone 上的声音模式吗 似乎有不同级别的 API 用于处理声音 更高层次的内容很容易理解 但我的理解越往下越模糊 有核心音频 音频单元 OpenAL 这些之间有什么联系呢 openAL 是
ios
coreaudio
openal
audiounit
AUGraph 弃用是否意味着不再有音频渲染回调?
我有一个带有详细渲染回调的应用程序 我怀疑是否可以使用 AVAudioEngine 来实现 无论如何 要将我的 AUGraph 渲染回调 具有多个总线 与 AVAudioEngine 一起使用吗 有示例代码吗 The 音频单元API htt
Audio
coreaudio
avaudioengine
ios13
augraph
«
1
2
3
4
5
6
7
»