Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
播放来自 BLE 的原始音频数据流
我正在开发一个 iOS 应用程序 我正在接收来自的原始数据流BLE 我在用着AVAudioEngine带缓冲器 let format AVAudioFormat commonFormat AVAudioCommonFormat pcmFor
ios
swift
AVFoundation
corebluetooth
avaudioengine
使用 AVAudioEngine 重复播放音频文件
我正在使用 Swift 和 Xcode 6 开发一个 iOS 应用程序 我想做的是使用 AVAudioEngine 播放音频文件 到目前为止一切正常 但是我怎样才能不停止地播放它 我的意思是 当它结束播放时它会再次开始 这是我的代码 CON
ios
swift
Audio
avaudioengine
avaudioplayernode
AVAudioSinkNode 具有非默认但仍然是设备本机采样率
我已经配置了AVAudioSinkNode附于AVAudioEngine s inputNode像这样 let sinkNode AVAudioSinkNode timestamp frames audioBufferList gt OSS
swift
coreaudio
avaudioengine
将现场音频从线路输入路由到 AirPods?
有没有办法将来自有线线路输入的音频直接路由到 AirPods 目前 我正在创建一个 playAndRecord音频会话 已配对 AirPods 后来 与AVAudioEngine我将输入设备直接连接到输出设备 engine connect
ios
swift
avaudiosession
avaudioengine
使用 AVAudioEngine 将 AVAudioInputNode 连接到 AVAudioUnitEffect
我想处理来自设备内置麦克风的音频 AVAudioInputNode 带有音频单元效果 AVAudioUnitEffect 对于我的例子 我正在使用AVAudioUnitReverb 连接中AVAudioUnitReverb导致应用程序崩溃
ios
avaudioengine
AVAudioCompressedBuffer 到 UInt8 数组,反之亦然
我想知道如何获取 AVAudioCompressedBuffer 的字节 然后 从字节重建 AVAudioCompressedBuffer 下面的代码采用 AVAudioPCMBuffer 使用 AVAudioConverter 将其压缩为
ios
Arrays
swift
avaudioengine
avaudiopcmbuffer
AUGraph 弃用是否意味着不再有音频渲染回调?
我有一个带有详细渲染回调的应用程序 我怀疑是否可以使用 AVAudioEngine 来实现 无论如何 要将我的 AUGraph 渲染回调 具有多个总线 与 AVAudioEngine 一起使用吗 有示例代码吗 The 音频单元API htt
Audio
coreaudio
avaudioengine
ios13
augraph
AVAudioFile 中的 URL 为零
我正在尝试使用 AVAudioEngine 在背景音频文件之上播放多个音频文件 当我尝试初始化时backgroundAudioFile 应用程序崩溃说 Thread 1 Fatal error try expression unexpect
swift
avaudioplayer
avaudioengine
SWIFT - 是否可以从 AVAudioEngine 或 AudioPlayerNode 保存音频?如果是,怎么办?
我一直在查看 Swift 文档保存 AVAudioEngine 的音频输出但我找不到任何有用的提示 有什么建议吗 Solution感谢马特的回答 我找到了解决方法 下面是如何在通过 AVAudioEngine 传递音频后保存音频的示例代码
swift
avasset
avaudioengine
avaudioplayernode
avaudiofile
如何从AVAudioEngine的installTap高频获取缓冲区
我希望像 iOS 语音备忘录应用程序一样在屏幕上渲染音频波形 因此我使用 AVAudioEngine 并在输入节点上安装 Tap 但它以 0 1 秒的频率提供最快的回调 我需要以更快的频率获取缓冲区数据 以便可以在屏幕上绘制越来越多的波形
swift
avaudioengine
在 Swift 中使用 AVAudioEngine 保存更改时间音调的音频文件
目前 我正在尝试更改文档文件夹中现有音频文件的时间音调 然后使用 AVAudioEngine 用修改后的文件覆盖旧文件 我已经使用 AVAudioPlayerNode 和 AVAudioUnitTimePitch 完成了第一部分的工作 不过
swift
avaudioengine
从多个通道 AVAudioEngine 播放多个 WAV
我有 15 个 WAV 文件 需要在各个通道上按顺序播放 我开始尝试让两个文件使用左 右立体声分离 我正在创建一个音频引擎 一个混音器和两个 AVAudioPlayerNode 音频文件是单声道的 我试图从 PlayerA 获取文件以从左声
swift
Audio
avaudioengine
avaudioplayernode
AVAudioPlayerNode.scheduleFile() 的completionHandler 调用得太早
我正在尝试在 iOS 8 中使用新的 AVAudioEngine 看起来player scheduleFile 的completionHandler被调用before声音文件已播放完毕 我正在使用长度为 5 秒的声音文件 并且println
iOS8
avaudioengine
插入/拔出耳机时 SKAudioNode() 崩溃
我正在使用一个SKAudioNode 在我的游戏中播放背景音乐 我有播放 暂停功能 在插入耳机之前一切正常 根本没有声音 当我调用暂停 播放函数时 出现此错误 AVAudioPlayerNode mm 333 开始 所需条件为假 engin
swift
spritekit
swift2
avaudioengine
skaudionode
使用 AVAudioEngine 播放 AVAudioPCMBuffer 中的音频
我有两节课MicrophoneHandler and AudioPlayer 我已经成功使用AVCaptureSession使用批准的答案窃听麦克风数据here https stackoverflow com questions 33850
ios
swift
Audio
avaudiosession
avaudioengine
AVAudioEngine.connect 在硬件而非模拟器上崩溃
var engine AVAudioEngine var format engine inputNode inputFormat forBus 0 engine connect engine inputNode to engine main
ios
swift
audiokit
avaudioengine
Swift:尝试使用 UISlider 控制 AVAudioPlayerNode 中的时间
我正在使用一个AVAudioPlayerNode附加到一个AVAudioEngine播放声音 为了获取玩家的当前时间 我正在这样做 extension AVAudioPlayerNode var currentTime TimeInterv
ios
swift
SeekBar
avaudioengine
avaudioplayernode
我们可以将语音识别框架与 Today Extension 结合起来吗
我正在尝试构建一个带有语音按钮的小部件 当我按下它时 它应该将说出的语音转换为文本 但是 当我尝试录制语音时 AVAudioEngine 无法启动 是因为 Today Extension 中不允许 AVAudioEngine 吗 在互联网上
ios
swift
avaudiosession
todayextension
avaudioengine
在 AVAudioEngine 中从网络传输数据,可能吗?
我有一个使用的应用程序AVAudioEngine用于从本地文件系统播放文件AVAudioPlayerNodes and AVAudioFiles 这工作得很好 现在我想让我的设置也支持从互联网上的服务器流式传输 MP3 文件 到目前为止我尝
ios
Objectivec
MacOS
swift
avaudioengine
使用 Avaudioengine iOS 的低通滤波器 + 采样率转换
我们正在开发一个项目 该项目允许我们使用一些低通滤波器和高通滤波器以 5k Hz 采样率从麦克风录制一些声音 我们正在使用什么 我们正在使用音频引擎以此目的 我们正在使用AVA音频转换器用于降低采样率 我们正在使用AVAudioUnitEQ
swift
Frequency
avaudioengine
lowpassfilter
highpassfilter
1
2
»