Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Gstreamer、rtspsrc 和负载类型
我在从特定摄像头检索 rtsp 流时遇到困难 因为摄像头提供的 rtp 有效负载类型是 35 未分配 并且该摄像头接受的有效负载类型rtph264德佩插件的范围是 96 127 结果是 gstreamer 显示如下错误
gstreamer
RTSP
RTP
ffmpeg创建RTP流
我正在尝试使用 ffmpeg 进行编码和流式传输 libavcodec libavformat MSVC x64 with Zeranoe builds 这是我的代码 很大程度上改编自编码示例 删除了错误处理 include stdafx
c
ffmpeg
RTP
FFmpeg RTP 流媒体错误 [关闭]
Closed 这个问题是无关 help closed questions 目前不接受答案 我想通过 FFmpeg 播放视频文件 但出现此错误 RTP 复用器仅支持一种流 当我写这个时 我得到了这个错误 ffmpeg exe i SomeVi
ffmpeg
Streaming
live
RTP
如何将 pcap 文件流式传输到 RTP/RTCP 流?
我已经捕获了三个不同的流作为带有元数据的 pcap 文件 如何流回 RTP RTCP 流 如果我理解正确的话 你有 pcap 但你想从他们那里得到 RTP 吗 Wireshark 用户界面 您可以使用 Wireshark 的 UI 通过菜单
Stream
RTP
pcap
rtcp
Android RTP/RTCP 堆栈
我正在寻找一个堆栈 库 它可以让我充分利用 Android 下 RTP 和 RTCP 协议的所有标头字段 我不知道这是否重要 但我想将它与我用于 SIP 和 SDP 的 JAIN SIP 堆栈结合起来 有没有人有任何经验或建议 The an
Android
RTP
rtcp
libavformat/ffmpeg 与 x264 和 RTP 同步时出现问题
我一直在开发一些实时直播的流媒体软件 来自各种摄像机和网络流使用 H 264 为了实现这一点 我直接使用 x264 编码器 使用 零延迟 预设 并提供 NAL 因为它们可用于 libavformat 打包到 RTP 最终是 RTSP 中 理
c
ffmpeg
RTP
x264
libavformat
如何在 HTML5 中流式传输实时视频?
我正在寻找一种方法来广播从植根于 PC 的网络摄像头或相机拍摄的实时视频 广播应该使用标签 我认为支持 rtp 和 rtsp 显示在 HTML5 页面中 查看流的用户不必安装任何插件或视频播放器 例如 QuickTime 我需要视频为 mp
html
Streaming
MP4
RTSP
RTP
使用 gstreamer-1.0 的 H264 RTP 流
我尝试从带有摄像头模块的 Raspberry Pi 3 到视频标签制作 H264 RTP 流 使用以下代码启动流 raspivid t 0 h 720 w 1080 fps 25 hf b 2000000 o gst launch 1 0
video
html5video
gstreamer
RTP
livestreaming
在 Android 上显示实时 UDP 或 RTP 流(组播)
我刚接触 Android 开发几周 我需要编写一个应用程序 可以向用户显示以 UDP 或 RDP 多播的实时流 该流位于诸如 rtp 230 0 0 11 1234 之类的地址 并通过该模块通过 WIFI 发出 我已经尝试从播放器 Daro
Android
udp
videostreaming
RTP
如何对 H265/HEVC 的 RTP 数据(通过 UDP)中的碎片帧进行解包?
我正在尝试对原始 RTP H265 流进行解包并重建它 以便解码器可以读取它 我已经能够通过识别 NAL 和 FU 详细信息从 RTP 缓冲区中提取单个和碎片单元 但是 我无法找到有关处理放置在碎片单元缓冲区前面的 NAL 的精确细节 这是
videostreaming
RTP
hevc
videocodecs
h265
RTP 视频流:是否必须存在 SDP 文件?
我已经实现了原始 rtp 流 我想使用 VLC 或 Mplayer 来播放它 但视频播放器似乎无法播放此流 例如 MPlayer 说 Stream not seekable Stray packet seq 6 1013 seq 987 n
videostreaming
RTP
在 Gstreamer 上流式传输 MP4 视频文件
我第一次使用 gstreamer 并尝试使用 Gstreamer RTP 和 UDP 将 MP4 视频文件从服务器流式传输到客户端 我尝试使用的命令行 在服务器端 gst launch 1 0 v filesrc location file
udp
videostreaming
gstreamer
MP4
RTP
如果wireshark无法识别某些类型的协议(RTSP、RTP、RTCP),如何强制其破译它们?
我正在尝试根据Java实现RTSP协议http www csee umbc edu pmundur courses CMSC691C lab5 kurose ross html http www csee umbc edu pmundur
TCP
udp
wireshark
RTSP
RTP
如何计算音频流中每个数据包的 RTP 时间戳
我阅读了 RTP 规范 但似乎无法理解 RTP 数据包时间戳 我尝试在我的服务器中以不同的方式实现它 但我无法让玩家正确播放它 我在这里的 错误 行为是 我使用 VLC 播放器播放 RTSP url 到我的服务器 我发现玩家的日志说 缓冲太
timestamp
audiostreaming
VLC
networkprotocols
RTP
从 RTP 流中解码 h264 帧
我正在使用 live555 和 ffmpeg 库从服务器获取和解码 RTP H264 流 视频流由 ffmpeg 编码 使用 Baseline 配置文件和 x264 param default preset m params veryfas
c
ffmpeg
h264
RTP
c++ 打洞UDP(RTP)
我正在做一个客户端 服务器语音聊天程序 非托管C win32 其中客户端使用TCP连接到服务器 文本聊天 聊天室功能是在TCP中完成的 而所有音频传输都是通过单独的UDP RTP套接字发送的 使用API来自 JRTPLIB 因此 从 TCP
c
NetworkProgramming
udp
RTP
holepunching
如何将 rtp 数据包有效负载字节转换为任何音频数据?
我正在用java制作一个项目 不使用任何第三方库 我已经使用以下命令成功建立了 udp 连接DatagramSocket 然后我开始使用sip协议进行通信 我已经顺利通过了注册和邀请阶段 这就是我获取音频数据流将传输到的主机和端口的方式 然
Java
udp
SIP
RTP
H.264 over RTP - 识别 SPS 和 PPS 帧
我有来自 IP 摄像机的原始 H 264 流 封装在 RTP 帧中 我想将原始 H 264 数据放入文件中 以便我可以将其转换为ffmpeg 因此 当我想将数据写入原始 H 264 文件时 我发现它必须如下所示 00 00 01 SPS 0
c
h264
RTSP
RTP
我可以使用WebRTC接收标准RTP视频流吗?
我有两台计算机在同一网络上 其中一个使用 RTP 协议传输电影 H264 是否可以创建一个简单的 JavaScript 应用程序来在第二台计算机上接收此流并显示在视频标签中 到目前为止 我对WebRTC的印象是它被设计为在浏览器之间使用 都
javascript
RTP
webrtc
从 QuickTime MOV 文件解析 h.264 NAL 单元
我正在尝试从 iPhone 上的 MOV 文件获取 h 264 NAL 单位 以便将 RTP h 264 视频从 iPhone 摄像头传输到服务器 Apple 的 API 不允许直接访问来自相机输出的编码比特流 因此我只能在写入 MOV 文
ios
h264
quicktime
RTP
MOV
1
2
3
»