Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何将 Web Audio API 连接到 Tone.js?
我正在做一个在线音频播放器 所以我想整合变调器在我的应用程序中 可以在Tone js但不在网络音频API 所以我的想法是连接Tonejs 变调器 to 网络音频 API 音频上下文 有什么可行的办法吗 这是我的代码供参考 var audio
javascript
nodejs
Audio
webaudioapi
tonejs
合并多个音频缓冲区源
关于html5 webaudio的问题 是否可以将多首歌曲合并在一起 我有不同的曲目 它们都使用 webaudio 同时播放 但我需要处理音频 因此我需要一个缓冲区内的所有音频 而不是每个曲目都有自己的缓冲区 我尝试通过添加通道数据来合并它
javascript
html
Audio
webaudioapi
通过 WebRTC 流对实时 PCM 音频数据进行未压缩、未加密、未更改、原始传输
我正在转移一个live使用 WebRTC 的 2 个 Electron 窗口进程之间的音频流 没有 ICE 或 STUN 服务器 或类似的东西 连接是通过 Electron IPC 通信手动建立的 基于这段代码 注意 从有关音频流本身的技术
javascript
webrtc
Electron
webaudioapi
在浏览器中为节拍器准确计时声音[关闭]
Closed 此问题正在寻求书籍 工具 软件库等的推荐 不满足堆栈溢出指南 目前不接受答案 我想创建一个虚拟节拍器并在每一步中播放节拍器声音 常用方法如setTimeout setInterval 不够准确 我怎样才能让它在不延迟或不掉节拍
javascript
Audio
html5audio
webaudioapi
使用 fetch 进行 WebAudio 流式传输:DOMException:无法解码音频数据
我正在尝试使用 Chrome 51 播放来自 fetch API 的无限流 网络摄像头音频流为 Microsoft PCM 16 位 单声道 11025 Hz 该代码对于 mp3 文件几乎可以正常工作 除了一些小故障 但它对于 wav 文件
Googlechrome
Audio
Streaming
Fetch
webaudioapi
使用 Mocha 和 Chai 测试使用 Web 音频 API 的库
我正在构建一个使用网络音频 api 更具体地说是 ToneJS 的库 我尝试过使用jsdom 摩卡 jsdom没有成功 我收到这个错误 node modules tone build Tone js 3869 this input this
nodejs
Testing
mochajs
webaudioapi
jsdom
如何避免网络音频 api 的 CORS 限制?
我试图为音频流创建一些可视化 但是当我尝试使用以下命令访问原始音频数据时 我遇到了 CORS 问题createMediaElementSource 功能 有没有办法避免这种限制并从其他来源的流中获取原始音频数据 也许使用 WebSocket
javascript
CORS
webaudioapi
通过 Web Audio API 播放分块音频时断断续续/听不清
我在上一篇文章中提出了这一点 但由于它与原始问题无关 所以我将其单独发布 我无法通过网络音频播放传输的音频 就像在媒体播放器中播放一样 我尝试了两种不同的传输协议 binaryjs 和 socketio 但在尝试通过网络音频播放时都没有什么
html
nodejs
audiostreaming
webaudioapi
网络音频启动和停止振荡器然后再次启动
我正在尝试启动和停止声音 那行得通 但我无法再次启动声音 我真的需要再次制作另一个振荡器吗 这看起来非常不直观 一定会有更好的办法 这就是我所拥有的一切 oscillator1 noteOn 0 oscillator1 noteOff 0
javascript
Audio
webaudioapi
JavaScript 音频的未来?
我正在教孩子们如何向他们的 JavaScript 游戏和网页添加音频 我了解 HTML5 音频 API 现在刚刚了解各种浏览器的问题 令人惊讶的是 IE 根本不支持 WAV 等 不过 显然有一个新的网络音频标准我不知道 Chrome 完全支
javascript
html
Audio
html5audio
webaudioapi
使用 FFMPEG 进行网络音频 api 的直播
我正在尝试使用 node js ffmpeg 将音频流式传输到仅使用 Web 音频 api 在 LAN 中连接的浏览器 不使用 element 因为它添加了自己的 8 到 10 秒的缓冲区 并且我希望获得尽可能高的延迟 最多大约 1 到 2
nodejs
ffmpeg
html5audio
webaudioapi
将两个音频缓冲区叠加到一个缓冲区源中
尝试将两个缓冲区合并为一个 我已经能够从音频文件创建两个缓冲区并加载和播放它们 现在我需要将两个缓冲区合并为一个缓冲区 他们怎样才能合并 context new webkitAudioContext bufferLoader new Buf
javascript
html
Audio
html5audio
webaudioapi
Phonegap 混合音频文件
我正在使用 Phonegap for Ios 构建一个卡拉 OK 应用程序 我在 www assets 文件夹中有音频文件 可以使用 media play 函数播放它们 这允许用户收听背景音乐 当媒体正在播放时 另一个媒体实例正在录制 录音
ios
Cordova
Audio
html5audio
webaudioapi
使用 Web Audio API 进行离线/非实时渲染
问题 我正在开发一个 Web 应用程序 用户可以在其中对音频样本进行排序 并可以选择将效果应用到他们使用 Web Audio API 创建的音乐模式 这些模式存储为 JSON 数据 我想对每个模式服务器端的渲染音频进行一些分析 据我所知 这
javascript
Googlechrome
webaudioapi
在网络上录制音频,预设:16000Hz 16bit
function floatTo16BitPCM output offset input for var i 0 i lt input length i offset 2 var s Math max 1 Math min 1 input
javascript
Audio
record
webaudioapi
如何使用网络音频 api 无缝循环声音
我在任何地方都找不到这个问题的明确答案 我正在寻找在 chrome 中加载文档时自动无缝循环 wav 文件的最简单方法 看来 webaudio api 是最佳实践 但我找不到简单的文档 对 safari 和其他方面的支持也很好 但没那么重要
Googlechrome
loops
safari
webaudioapi
标签到audioBuffer - 这可能吗?
我的 javascript webApp 首先读取一个短的 mp3 文件并在其中找到静音间隙 用于导航目的 然后播放相同的 mp3 文件 提示它从一个静音或另一个静音结束的位置开始 这与通常的 webAudio 场景不同 通常的 webAu
javascript
html
Audio
webaudioapi
AudioContext.decodeAudioData(...) 不适用于 iPhone,但适用于其他地方
我有以下非常基本的代码 它是更复杂问题的一部分 我的问题是这个函数 context decodeAudioData arrayBuffer 不工作iPhone 试穿Safari and Chrome nor Mac Safari 但它可以在
javascript
html
webaudioapi
ecmascript2017
audiocontext
设置连接到 Web 音频 api 的音频元素的playbackRate
我一直在尝试使用 createMediaElementSource 将音频元素连接到网络音频 api 并让它工作 但我需要做的一件事是更改音频标签的播放速率 但我无法让它工作 如果您尝试运行下面的代码 您会发现它一直有效 直到您取消注释我们
javascript
html
html5audio
webaudioapi
将 AudioBuffer 转换为 ArrayBuffer / Blob 以进行 WAV 下载
我想转换一个AudioBuffer to a Blob这样我就可以从中创建一个 ObjectURL 然后下载音频文件 let rec new Recorder async chunks gt var blob new Blob chunks
javascript
webaudioapi
ArrayBuffer
typedarrays
«
1
2
3
4
5
6
»