Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何使用 ffmpeg 在串联视频之间制作淡入/淡出效果
我有三个视频 分为三个部分 首先是开始 然后是主视频 然后是视频的结尾 我将它们连接在一起我想在第一个视频的末尾和第三个视频的开头添加淡入 淡出效果视频 以便观众可以很好地将它们分开 我使用此代码通过将视频名称添加到文本文件来将视频连接在一
video
ffmpeg
使用 python 进行实时 mp3 ffmpeg 编码器时出错
我有如下代码 我想录制声音并将每个 wav 帧转换为 mp3 格式 使用 ffmpeg 实时 import pyaudio sys import subprocess command ffmpeg y f wav i f mp3 proce
python
Windows
python27
ffmpeg
subprocess
使用 FFMPEG 将音频(带有偏移量)添加到视频
我有一个 10 分钟的视频和一个 50 分钟的音频 mp3 视频从音频第 500 秒开始 使用 FFMPEG 如何将音频添加到视频但指定500 秒音频偏移 以便他们同步 EDIT 在这个底部page http howto pages org
Audio
video
ffmpeg
通过 Web API 2 流式传输视频内容
我正在研究执行以下操作的最佳方法 我有一堆闭路电视录像文件 MP4 文件 大小从 4MB 50MB 不等 我想通过门户网站提供这些文件 我的第一个想法是通过 Web API 流式传输文件 所以我找到了下面的链接 http www strat
c
aspnetwebapi
ffmpeg
videostreaming
html5video
是否在 /usr/local/lib 中搜索共享库?
Is usr local lib搜索共享库 我有这个错误 Leo chessman whereis ffmpeg ffmpeg usr local bin ffmpeg Leo chessman ffmpeg ffmpeg error wh
Linux
Linker
ffmpeg
sharedlibraries
我的视频没有关键帧,怎么可能?
当我在视频上运行以下行时 它仅输出 P 帧和 B 帧 没有 I 帧 ffprobe select streams v show frames show entries frame pict type of csv 00000 MTS 视频怎
video
ffmpeg
h264
ffprobe
为 iPod classic 编码视频
我刚刚安装完ffmpeg在 debian wheezy 上使用这些说明 http trac ffmpeg org wiki UbuntuCompilationGuide http trac ffmpeg org wiki UbuntuCom
video
ffmpeg
ipod
ffmpeg 无损质量转换
当文件类型不是 flv mp4 webm 时 我需要将所有视频转换到我的视频播放器 在网站中 当我使用时 ffmpeg i filename mkv sameq ar 22050 filename mp4 h264 0x645ee0 解码
ffmpeg
loss
ffmpeg:记录/捕获流并同时进行场景检测
是否可以同时捕获 录制 RTSP 流and使用单个 ffmpeg 命令捕获场景变化事件 我几乎可以做我想做的事 ffmpeg i rtsp mystream map 0 v map 0 a c v copy c a copy f segme
video
ffmpeg
videostreaming
使用 ffmpeg 与偏移混合声音,其偏移不起作用
我正在尝试在 Android 上使用 ffmpeg 混合三种声音 但我希望最后两个声音与第一个声音以一定的偏移量混合 我正在使用这个命令 ffmpeg i input1 itsoffset 5 i input2 itsoffset 10 i
Android
ffmpeg
FFMPEG 推送 RTMP 流在 Android 和 iPhone 上不工作
我必须做一个半直播 我使用 Nginx rtmp 模块 然后使用以下命令通过 ffmpeg 将内容推送到它 ffmpeg re i content mp4 r 25 f fvl rtmp rtmp server here 当我从 rtmp
Android
iphone
Nginx
ffmpeg
rtmp
opencv rtsp流协议
我想处理并显示从树莓派相机创建的网络 rtsp 流 我有这个代码 include
c
opencv
ffmpeg
RTSP
使用nodejs中的直通流模块使用axios发送文件
Imports const ffmpegPath require ffmpeg installer ffmpeg path const FfmpegCommand require fluent ffmpeg const fs require
nodejs
ffmpeg
nodejsstream
libavcodec/swscale 的输出损坏,具体取决于分辨率
我正在编写一个视频会议软件 我有一个 H 264 流 使用 libavcoded 解码为 IYUV 然后在无窗口模式下使用 VMR9 渲染到窗口中 我使用 DirectShow 图形来执行此操作 为了避免不必要的 RGB 和反转换 请参阅l
c
video
ffmpeg
libavcodec
bash 中的视频方向检测
我需要检测视频是以纵向还是横向模式录制的 然后以脚本方式将其转换为正确的方向 if v orient landscape then ffmpeg i file mp4 vf transpose 1 file ogv else ffmpeg
bash
video
ffmpeg
orientation
GStreamer Tee(多路复用器)
我正在尝试将视频流 来自我的网络摄像头 存储到 MKV 和 FLV 文件中 这意味着我必须在 h264 编码后分割视频和音频管道 并使用不同的复用器复用每个路径 这就是我想象的它应该如何工作 gt queue gt matroskamux
ffmpeg
gstreamer
tee
mux
ffmpeg FLAC 24 位 96khz 至 16 位 48khz
试图弄清楚 ffmpeg 目前正在努力将 24bit 96khz FLAC 文件转换为 16bit 48khz 基本示例 ffmpeg i input flac sample fmt s16 ar 48000 output flac 列出示
Audio
ffmpeg
bitrate
flac
nodejs ffmpeg在特定时间播放视频并将其流式传输到客户端
我正在尝试使用 nodeJS 和 ffmpeg 制作一个基本的在线视频编辑器 为此 我需要执行 2 个步骤 设置客户端视频的进出时间 要求客户端在特定的时间观看视频 并切换视频的位置 这意味着 如果使用单个视频作为输入 并将其分割成更小的部
javascript
nodejs
ffmpeg
MP4
webm
需要用户输入的 ffmpeg cli 过滤器
有没有办法为 ffmpeg 编写过滤器脚本 这样当我给出输入时 过滤器就会改变行为 例如 在录制流时 使用某个键更改对比度 或者使用另一个键混合两个视频 我已经看到我可以以静态方式执行此操作 例如使用新行为重新启动记录 然后调用 conca
ffmpeg
GoPro:获取每帧时间戳
我目前正在尝试从使用 GoPro 录制的 MPEG 4 文件中提取每个帧时间戳 我想要相机捕获该帧的确切时间 以便稍后将其与计算机视觉算法结合起来 我知道输出帧率为 25 fps 我使用 ffmpeg 和 ffprobe 以不同的方式提取了
ffmpeg
MPEG
mpeg4
gopro
«
1 ...
5
6
7
8
9
10
11
...63
»