我希望能够将 AR Drone 2 的视频源从 Debian 服务器重新传输到 Flash。
我知道 AR 无人机使用编解码器 p264。我对视频编解码器完全陌生,所以我不知道什么适合我想要实现的目标?
我已经能够从 AR 无人机流式传输视频源,但与使用 ffplay 直接连接到 AR 无人机时相比,延迟非常高且质量极低。
我目前在标准 ffserver.conf 中使用 .swf 示例:
<Stream test.swf>
Feed feed1.ffm
Format swf
VideoFrameRate 30
VideoIntraOnly
NoAudio
</Stream>
.ffm Feed 的设置如下:
<Feed feed1.ffm>
File /tmp/feed1.ffm
FileMaxSize 17K
ACL allow 127.0.0.1
NoAudio
</Feed>
我用于向 ffserver feed 提供输入的命令:
ffmpeg -i http://192.168.1.1:5555 http://localhost:8090/feed1.ffm
由于该流当前无法观看,我如何才能实现更低的延迟和更高的质量?
不幸的是 ffserver 根本无法完成您想要完成的工作。您和互联网上的其他人都遇到了同一堵墙。我能得到的最好延迟是大约 3 秒延迟,随着流运行几个小时,延迟会逐渐增加到大约 5-10 秒。
对于我来说,该流也没有使用 ffmpeg 进行解码。我不知道为什么。它与 ffplay 一起工作,这让我更加困惑!
我正在研究 Py-Media,看看我是否可以为类似的项目编写自己的代码。我想流式传输无人机视频并缩小流中的图像。
附注看看 gstreamer,我看到其他人讨论它产生了不同的结果。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)