Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
CMSampleBufferSetDataBufferFromAudioBufferList 返回错误 12731
我正在尝试捕获应用程序声音并将其传递给 AVAssetWriter 作为输入 我正在设置音频单元的回调以获取 AudioBufferList 问题始于将 AudioBufferList 转换为 CMSampleBufferRef 它总是返回
ios
iphone
AVFoundation
coreaudio
audiounit
强制向扬声器发出音频警报
我有一个小应用程序 在此应用程序中 扬声器每隔我设置的特定时间就会发出噪音 现在 我希望即使设备中插入了耳机插孔 它也能通过内置扬声器发出噪音 我怎样才能做到这一点 您可以尝试以下代码在扬声器上播放代码 另请检查this http uiha
ios
iphone
coreaudio
OSX AudioUnit SMP
我想知道是否有人有编写利用多核处理器和 或对称多处理的 HAL AudioUnit 渲染回调的经验 我的场景如下 子类型的单个音频组件kAudioUnitSubType HALOutput 连同它的渲染回调 负责附加合成n具有独立的单独变化
MacOS
multiprocessing
coreaudio
audiounit
为什么我无法更改 AU 多通道混音器输入范围中的元件/总线数量?
UPDATE 我正在更改我的代码以更简化的方式说明问题 我还有一个小错误 虽然没有阻止问题的发生 但确实增加了一些混乱 我正在 iOS 中实例化多通道混音器 AU kAudioUnitSubType MultiChannelMixer 并执
ios
coreaudio
audiounit
帮助修复内存泄漏版本
import VTM AViPodReaderViewController h import
iphone
Objectivec
xcode
coreaudio
语音识别和语调检测
我想做一个 iOS 应用来计算疑问句 我会寻找 WH 问题以及 我会吗 格式化问题 我对语音或音频技术领域不太了解 但我Google了一下 发现语音识别SDK很少 但仍然不知道如何检测和绘制语调 是否有支持语调或情感语音识别的 SDK 据我
ios
coreaudio
SpeechRecognition
核心音频指导/入门
我一直在阅读 ios 4 的核心音频 目的是构建一个小测试应用程序 目前我对所有 api 的研究感到非常困惑 理想情况下 我想知道如何从两个 mp3 中提取多个样本到数组中 然后在回调循环中 我想将这些样本混合在一起并将它们发送到扬声器 苹
ios4
coreaudio
Swift 与 Objective C 指针操作问题
我在 Objective C 中有这段代码 运行良好 list controller gt audioBufferList list gt mBuffers 0 mDataByteSize inNumberFrames kSampleWor
ios
Objectivec
swift
swift4
coreaudio
实时获取 macOS 输出设备音频缓冲区
我试图tapmacOS 上当前选择的输出音频设备 因此我基本上有一个直通侦听器 可以监视当前正在输出的音频流而不影响它 我想将这些数据实时复制到环形缓冲区 以便我可以单独对其进行操作 Apple 文档和 过时 SO 答案的结合令人困惑 我是
Objectivec
swift
MacOS
Audio
coreaudio
AVAudioSinkNode 具有非默认但仍然是设备本机采样率
我已经配置了AVAudioSinkNode附于AVAudioEngine s inputNode像这样 let sinkNode AVAudioSinkNode timestamp frames audioBufferList gt OSS
swift
coreaudio
avaudioengine
如何将 iPod 库资源连接到音频队列服务并使用音频单元进行处理?
我需要处理来自 iPod 库的音频 读取 iPod 库资源的唯一方法是 AVAssetReader 要使用音频单元处理音频 它需要采用立体声格式 因此我有左声道和右声道的值 但是 当我使用 AVAssetReader 从 iPod 库读取资
ios
coreaudio
audiounit
如何注册音量变化通知?
当 OS X 音量发生变化时 我需要通知我的应用程序 这适用于桌面应用程序 不适用于 iOS 我如何注册此通知 这可能有点棘手 因为某些音频设备支持主通道 但大多数不支持 因此音量将是每个通道的属性 根据您需要执行的操作 您可以仅观察一个通
Objectivec
cocoa
coreaudio
AudioConverterNew 返回 -50
我有一个关于使用 AudioQueue 服务的小问题 我已按照 Apple 网站上提供的指南进行操作 但是当我启动并运行音频队列时 我收到消息告诉我 AudioConverterNew 返回 50 现在 我知道 50 错误代码意味着存在错误
c
Objectivec
MacOS
coreaudio
iOS 将音频采样率从 16 kHz 转换为 8 kHz
我尝试将 PCM 音频从 16kHz 转换为 8kHz 只是采样率 没有格式更改 流程看起来很简单 但我不断得到kAudioConverterErr InvalidInputSize insz 来自呼叫AudioConverterFillC
ios
iphone
Audio
coreaudio
audiotoolbox
如何通过扬声器而不是较弱的耳机扬声器播放音频?
我正在学习核心音频 由于某种原因 处理图的声音仅通过弱 耳机 播放 当您将设备放在耳边时 而不是通过 iPhone 的常规扬声器播放 这是设置音频会话的代码 但我看不到它在哪里配置音频路由 void setupAudioSession AV
iphone
ios
iPad
coreaudio
如何用 Cocoa 获得准确的分贝值?
我们正在创建一个应用程序 它可以记录周围的声音 并在声音超过指定分贝时采取必要的措施 为了实现应用程序目标 我们使用 AudioQueueObject h 中的以下方法 void getAudioLevels Float32 levels
cocoa
Audio
coreaudio
decibel
AudioUnitInitialize 返回 -10851 (kAudioUnitErr_InvalidPropertyValue)
假设代码是 status AudioUnitSetProperty unit kAudioUnitProperty StreamFormat kAudioUnitScope Input element format sizeof Audio
Objectivec
MacOS
coreaudio
iOS 6 中使用 AudioFileServices 进行粒度合成
我对我正在开发的声音合成应用程序有疑问 我正在尝试读取音频文件 使用创建随机 颗粒 颗粒合成技术 http en wikipedia org wiki Granular synthesis 将它们放入输出缓冲区 然后能够使用 OpenAL
c
iphone
Objectivec
Audio
coreaudio
当 AudioSessionActive 为 NO 时,无法通过硬件按钮控制 AVAudioPlayer 的音量
我正在构建一个路线导航应用程序 可以播放周期性的简短声音片段 无论屏幕是否锁定 声音都应该播放 应该与其他音乐播放混合 并且应该在播放此音频时使其他音乐闪避 Apple 在 29 20 分钟的 WWDC 2010 session 412 i
Objectivec
coreaudio
avaudioplayer
avaudiosession
Swift 3 LPCM 录音机 |错误:kAudioFileInvalidPacketOffsetError
下面的录音机仅在第一次时有效 如果您尝试第二次录音 则在尝试 AudioFileWritePackets 时会出现错误 kAudioFileInvalidPacketOffsetError 知道为什么会发生这种情况吗 先感谢您 存储库位于此
ios
swift
coreaudio
audiotoolbox
recorder
1
2
3
4
5
6
7
»