Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何将 rtp 数据包有效负载字节转换为任何音频数据?
我正在用java制作一个项目 不使用任何第三方库 我已经使用以下命令成功建立了 udp 连接DatagramSocket 然后我开始使用sip协议进行通信 我已经顺利通过了注册和邀请阶段 这就是我获取音频数据流将传输到的主机和端口的方式 然
Java
udp
SIP
RTP
H.264 over RTP - 识别 SPS 和 PPS 帧
我有来自 IP 摄像机的原始 H 264 流 封装在 RTP 帧中 我想将原始 H 264 数据放入文件中 以便我可以将其转换为ffmpeg 因此 当我想将数据写入原始 H 264 文件时 我发现它必须如下所示 00 00 01 SPS 0
c
h264
RTSP
RTP
我可以使用WebRTC接收标准RTP视频流吗?
我有两台计算机在同一网络上 其中一个使用 RTP 协议传输电影 H264 是否可以创建一个简单的 JavaScript 应用程序来在第二台计算机上接收此流并显示在视频标签中 到目前为止 我对WebRTC的印象是它被设计为在浏览器之间使用 都
javascript
RTP
webrtc
从 QuickTime MOV 文件解析 h.264 NAL 单元
我正在尝试从 iPhone 上的 MOV 文件获取 h 264 NAL 单位 以便将 RTP h 264 视频从 iPhone 摄像头传输到服务器 Apple 的 API 不允许直接访问来自相机输出的编码比特流 因此我只能在写入 MOV 文
ios
h264
quicktime
RTP
MOV
无法在 Samsung Galaxy S2 的 VideoView 中播放 RTSP 视频
我正在尝试播放实时 RTSP 视频 来自rtsp media2 tripsmarter com LiveTV BTV using VideoView 这是我的代码 public class ViewTheVideo extends Acti
Android
RTSP
RTP
galaxy
androidvideoview
RTSP RTP 客户端流、时间戳、live555
我有一个位于不同国家 地区的网络摄像机 具有不同的时区 并且应用了它自己的日期时间值 例如 2012 04 16 11 30 00 然后是我的电脑所在的位置 例如我的电脑时间是 2012 14 16 06 10 00 我的目的 流式传输时
Streaming
timestamp
RTSP
RTP
live555
使用 VLC 通过 RTP 流式传输桌面,延迟尽可能低
我一直在尝试找出如何使用 VLC 流式传输我的桌面 通过 LAN 并实现尽可能低的延迟 我应该使用什么设置 我尝试了多种方法但尚未成功 编辑 我也愿意使用 VLC 以外的东西 我也用 VLC 尝试过同样的操作 但延迟始终无法低于 3 秒 F
Stream
Streaming
VLC
RTSP
RTP
GStreamer:将虚拟音轨添加到接收的 rtp 流中
我正在使用以下命令从 Raspberry 相机启动 RTP 流 raspivid n vf fl t 0 w 640 h 480 b 1200000 fps 20 pf baseline o gst launch 1 0 v fdsrc h
Audio
gstreamer
RTP
httplivestreaming
mux
在 libav 中读取 dumepd RTP 流
嗨 我需要一些帮助 指导 因为我陷入了我的研究之中 问题 如何在 API 通过编程 或控制台版本中使用 gstreamer 或 avlib ffmpeg 转换 RTP 数据 Data 我有来自 TCP 上的 RTP RTCP 的 RTP 转
c
ffmpeg
RTP
编写自定义 DirectShow RTSP/RTP 源推送过滤器 - 来自实时源的时间戳数据
我正在编写自定义 DirectShow 源推送过滤器 该过滤器应该从视频服务器接收 RTP 数据并将它们推送到渲染器 我编写了一个 CVideoPushPin 类 它继承自 CSourceStream 和 CVideoReceiverThr
filter
directshow
RTP
RTSP
Kurento Media WebRTC 转 RTP
我正在使用 kurento 的主 git 来制作 WebRTC 到 RTP 的桥接器 MediaPipeline pipeline kurento createMediaPipeline WebRtcEndpoint webRtcEndpo
webrtc
RTP
webm
Kurento
Android 移动设备上的 RTP 客户端应用程序
大家好 我正在 Android 设备上开发一个 RTP 客户端 它可以播放来自服务器的流媒体视频 我很困惑我应该如何开始 我正在考虑使用 HTML CSS 和 Javascript 开发一个 Web 应用程序 稍后可以将其封装在 Andro
Android
RTP
使用 Scapy 解码基于 UDP 的 RTP
如何使用 Scapy 2 3 2 解码 和操作 基于 UDP 的 RTP 我有一个名为 rtp pcap 的捕获文件 其中包含到 224 0 1 11 5016 的 RTP 音频流 当您启用 RTP over UDP 协议时 默认关闭 Wi
scapy
RTP
Android 中的 RTSP 客户端
可能有人问过同样的问题 但我没有找到任何适合我的解决方案 我正在尝试在 android 中播放 RTSP 流 服务器是 Darwin 流服务器 目前我尝试了VideoView和MediaPlayer 当我使用3G时 这两个都工作正常 但有时
Android
udp
RTP
RTSP
通过 rtp 流发送 Android h264 捕获
我正在为 android 编写一个 rtp 视频流媒体 它从 Android 本地套接字读取 h264 编码数据并将其打包 问题是我做到了 但我在客户端 Voip 不断收到黑框 通信过程如下 Android gt Asterisk gt J
Android
voip
h264
Asterisk
RTP
如何编写客户端-服务器视频流
我正在开发一个实时工作的项目 我必须编写一个视频流客户端服务器应用程序 该服务器会将 AVI MPEG 等发送到 Web 应用程序 我有一些疑问 建议使用什么协议来执行此操作 http rtp 或其他 在网络应用程序中 如何向用户显示它 使
c
NET
video
Streaming
RTP
使用 FFMPEG 从 IP 摄像机读取 RTCP 数据包
我正在使用 ffmpeg C 库 我需要拦截来自摄像头的 RTCP 数据包 以便从发送者报告中获取时间戳 ffmpeg 中是否有任何方法或结构可以为我提供此信息 我完全陷入困境 但我无法解决这个问题 任何帮助将不胜感激 提前致谢 最后我不得
c
ffmpeg
RTSP
RTP
Android:通过 RTP (G.711 PCMU) 将 .wav 发送到 SIP 电话,基于 SipDroid/MjSIP,声音非常嘈杂、噼啪作响
我想将 wav 文件从我的 Android 传输 仅发送 到软件电话 x lite 以便 x lite 上的被叫方可以听到 wav 文件的声音 场景如下 Android 和 x lite 都在同一个 WLAN 中 并且都连接到 FreeSw
Java
Android
Audio
RTP
mjsip
将 UDP 输入传送到 FFMPEG
摄像机正在本地端口上通过 UDP 以 RTP 形式向我发送视频数据 ffmpeg 是否支持将输入 H 264 有效负载 自动转换为 MP4 怎么做 这应该有效 ffmpeg i udp localhost 1234 vcodec copy
ffmpeg
udp
RTP
保持 Rtsp 连接活动
我有一个简单的 Rtsp 客户端 客户端将 Rtsp 命令发送到 Rtsp 服务器并从服务器获取 RTP 数据包 问题是一段时间 大约 3 4 分钟 后我的第 3 方 RTSP 服务器断开与我的 RTSP 客户端的连接 我还没有实现 RTC
RTSP
RTP
rtspclient
«
1
2
3
»