我能够将两者结合起来VIDEO(流)标签通过将它们限制为DIV tag.
<div id="elementToShare">
<video id="webcamVideo" controls loop autoplay class="webcam">No Support.</video>
<video id="screenshareVideo" controls loop autoplay class="screenshare">No Support.</video>
</div>
然后我用了DIV标记为canvas使用以下命令将两个视频录制为一个视频记录RTC https://github.com/muaz-khan/RecordRTC图书馆由穆阿兹汗 https://github.com/muaz-khan.
var elementToShare = document.getElementById('elementToShare');
var canvasRecorder = RecordRTC(elementToShare,{
type : 'canvas',
recorderType: CanvasRecorder
});
But the problem通过这种方法,我无法使用我使用的画布记录来自网络摄像头的音频流ffmpeg_asm.js https://github.com/muaz-khan/WebRTC-Experiment/tree/master/ffmpeg。由于js文件是18mb大小它需要大量时间来加载和处理视频文件。
据我所知,WebRTC 仍处于初级阶段,我希望能够出现一些有效的东西来实现这些目标。
NOTE:我能够实现上述功能谷歌浏览器仅在现阶段 Mozilla Firefox 提供了有限的支持。而 Safari 没有提供WebRTC 支持 http://caniuse.com/#search=webrtc所以它从一开始就被排除在外。
EDIT 1:为上述应用程序提供服务Node.js由于服务器支持提高了性能和视频处理能力。例如: ffmpeg_asm.js 无法处理大于 2200k 的视频比特率Node.js.