我希望能够将 iPhone 摄像头的帧/视频(实时)流式传输到互联网。我在一个线程中看到过(从 iPhone 传输视频 https://stackoverflow.com/questions/3444791/streaming-video-from-an-iphone)可以使用 AVCaptureSession 的 beginConfiguration 和 commitConfiguration。但我不知道如何开始设计这个任务。已经有很多关于如何将视频流传输到 iPhone 的教程,但实际上这并不是我正在寻找的。
你们能给我任何可以进一步帮助我的想法吗?
这是一个棘手的问题。你应该能够做到,但这并不容易。
一种不实时的方法(不能满足您的需求,但值得一提)是从相机捕获并将其保存到视频文件中。请参阅 AV Foundation Guide 了解如何执行此操作。保存后,您可以使用 HTTP Live Streaming 分段器生成正确的分段。 Apple 拥有适用于 Mac OSX 的应用程序,但也有一个开源版本,您可以将其改编为适用于 iOS。最重要的是,您还必须运行一个 http 服务器来为这些段提供服务。有很多 http 服务器可供您使用。
但要实时进行,首先正如您已经发现的那样,您需要从相机收集帧。一旦你有了这些,你想将它们转换为 h.264。为此你需要 ffmpeg。基本上,您将图像推送到 ffmpeg 的 AVPicture,形成流。然后,您需要管理该流,以便实时流分段器将其识别为实时流 h.264 设备。我不知道该怎么做,这听起来像是一项严肃的工作。完成此操作后,您需要有一个 http 服务器来为该流提供服务。
实际上可能更容易的是使用基于 RTP/RTSP 的流。 RTP 的开源版本涵盖了该方法,并且 ffmpeg 完全支持该方法。它不是 http 直播,但它可以很好地工作。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)