Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何使用 GStreamer 和 XOverlay 在 GTK+ 应用程序窗口中嵌入视频?
我正在尝试使用 GTK 和 GStreamer 编写一个小型媒体播放器 目前使用 XOverlay 接口将视频嵌入到 GtkDrawing 区域中INSIDE主窗口 该程序是使用以下命令编译的 g home phongcao cacao c
c
gtk
gstreamer
如果客户端在服务器之后启动,则 GStreamer v1.0 UDP 多播流无法正确解码
我正在尝试使用 GStreamer 进行 UDP 多播屏幕流传输 我的投屏服务器应该在 Windows 上运行 and my 客户端应在 Linux 上运行 如果我在服务器之前启动客户端 一切都很好 问题是当我启动客户端并且服务器已经启动时
udp
videostreaming
gstreamer
MULTICAST
使用 GStreamer 将视频转换为 WebM
文档用于GStreamer令人困惑 这仍然不是诉诸的借口StackOverflow com 但仍然 是什么GStreamer命令行将任何视频文件 任何格式 转换为 WebM WebM 音频 这是我能找到的唯一带有示例的文档 http gst
video
videoencoding
gstreamer
webm
使用 gstreamer 进行低延迟音频捕获
我需要在 Linux 上进行 几乎 实时音频捕获gstreamer 我的问题是我无法将延迟降低到约 210 毫秒以下 我尝试了从麦克风到耳机的简单环回 gst launch 1 0 pulsesrc alsasink gst launch
Audio
gstreamer
lowlatency
GStreamer Tee(多路复用器)
我正在尝试将视频流 来自我的网络摄像头 存储到 MKV 和 FLV 文件中 这意味着我必须在 h264 编码后分割视频和音频管道 并使用不同的复用器复用每个路径 这就是我想象的它应该如何工作 gt queue gt matroskamux
ffmpeg
gstreamer
tee
mux
Gstreamer Appsink 未从管道获取数据
我正在设计一个管道 将来自 opencv 应用程序 从网络摄像头获取 的视频帧编码为 video x h264 格式 通过网络发送并在另一台不同类型的设备 可能是树莓派 上将其解码到适合我的项目的 RGB 流 为此 我应该使用硬件加速编码器
c
opencv
video
gstreamer
vaapi
GStreamer 如何从流中提取视频帧?
这是用于从服务器捕获流视频的 python 代码 但我需要编写一个函数来从流中提取一帧 这将是一个按钮 单击它将显示当前帧 我没有想法 谁能帮我这个 self player gst Pipeline player self source g
python
videostreaming
gstreamer
如何查看 gstreamer 调试输出?
如何查看 GST CAT INFO GST DEBUG 等函数的输出 我是否需要自己使用调试级别设置来编译 gstreamer 还是可以在应用程序级别完成 可以使用 GST DEBUG 环境变量在 stderr 中打印调试消息 如果 gst
gstreamer
在 Windows 上为 python 2.7 安装 gstreamer 1.0。
我一直在尝试在 Windows 上安装 gstreamer 1 0 以用作 python 2 7 模块 我从这里安装了sdkhttp docs gstreamer com display GstSDK Installing on Windo
python
python27
gstreamer
pygst
gstreamer中如何设置element的sink pad属性?
如何在程序中设置水槽垫的属性 例如 sin 00 outWidth 1280 sin 00 outHeight 720 in this way pipeline was run using gst launch 0 10 并设置我使用过的这
c
gstreamer
Gstreamer视频输出位置跟踪和寻找
我正在使用 gstreamer gst launch 捕获相机并将流保存为视频和图像帧 管道的问题是 当管道完成 通过中断 视频记录时 它不能支持位置跟踪和查找 因此 视频在 vlc 播放器中播放 长度未知 我认为问题出在管道本身 如何实现
Linux
Camera
gstreamer
Gstreamer - Android 上的硬件加速视频解码
我在 Android 手机上通过 RTP UDP 接收视频 但我发现 CPU 使用率非常高 几乎 100 的一个核心都用于解码视频 在高端设备上 视频播放几乎流畅 但在中低端设备上 我几乎每秒无法获得 1 帧 这是一个 H 264 视频流
Android
video
gstreamer
h264
hardwareacceleration
使用 gstreamer-1.0 的 H264 RTP 流
我尝试从带有摄像头模块的 Raspberry Pi 3 到视频标签制作 H264 RTP 流 使用以下代码启动流 raspivid t 0 h 720 w 1080 fps 25 hf b 2000000 o gst launch 1 0
video
html5video
gstreamer
RTP
livestreaming
Debian sid下RStudio安装失败:libgstreamer依赖问题
我使用 Debian sid amd64 每周滚动更新一次 我最近从他们的官方网站下载了 RStudio 的桌面版本 0 99 902 并发布 当然 以 root 身份 dpkg i rstudio 0 99 902 amd64 deb 无
r
Debian
RStudio
gstreamer
gstreamer:如何改变从文件中获取的一个流的渲染时间
我有两个媒体文件 例如 file0 和 file1 我想将它们合并成一个具有 画中画 效果的单个 file0 中的内容要显示在整个窗口上 并且 file1 中的内容将显示在左上角 较小的盒子 还有一点是 file1 中的内容应该被渲染 从基
time
Rendering
gstreamer
offset
find_library 或 link_directories 或 find_package?什么是更好的方法?错误 - 使用 cmake 链接库
Given文件 usr lib gstreamer 0 10 libgstffmpeg so存在在 CMakeLists txt 中进行更改 方法一 find library find library GST FFMPEG 名称 gstff
CMake
gstreamer
dynamiclinking
sharedlibraries
Videomixer 在源上失败,而不是在 Videotestsrc 上失败
我想在一个视频文件中同时播放两个不同的本地视频文件 窗户 下面的代码在没有解复用器和解码器的情况下工作正常 static void play video GMainLoop loop GstElement pipeline videomix
gstreamer
如何使用 gstreamer 在两个不同的显示器上同时播放两个不同的视频
我在用 Raspberry Pi 4 B 型 有 2 个 HDMI 端口 Gstreamer 1 0 我有两个视频保存在存储卡中 我想将两个视频驱动到两个不同的 HDMI 端口 并同时在两个不同的显示器上播放视频 我想知道 Gstreame
gstreamer
gstreamer10
raspberrypi4
如何使用 VideoWriter 从 OpenCV 打开 GStreamer 管道
我正在使用 OpenCV VideoCapture 捕获视频帧 捕获工作正常 因为我可以使用这样的框架 cv VideoCapture cap v4l2src device dev video1 videoscale videorate v
c
opencv
video
gstreamer
将多个视频合并为一个
我有三个视频 用摄像机拍摄的讲座 讲座中使用的计算机的桌面捕获视频 和白板的视频 我想创建一个最终视频 其中这三个组件占据屏幕的特定区域 是否有开源软件可以让我做到这一点 mencoder ffmpeg virtualdub 你推荐哪一个
c
video
ffmpeg
gstreamer
«
1
2
3
4
5
6
»