Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
H264解析-切片头检测
我知道在 h264 中我们可以通过位模式检测 NAL 单元0x000001 是否有等效的方法来检测 NAL 单元中的切片标头 如何处理多切片 NAL 单元 目前我正在使用 h264 的解析代码并获取相应结构中的切片标头 切片头语法在第 36
c
visualc
h264
时间戳和合成时间偏移
H 264 缓冲区是否包含时间戳和解码时间戳信息 当我们获得 H 264 nalu 数据时 其中是否包含计时信息 如果您指的是原始 H 264 NAL 单元 那么它们不包含计时信息 如果指的是 PTS DTS 之类的内容 MKV MP4 T
h264
直接从 numpy 进行 h.264 编码
我想直接从视频帧的 numpy 数组中编码视频 Open cv 通过以下方式提供此类功能cv2 VideoWriter 但是我需要 h 264 编解码器 但该编解码器不可用 到目前为止 我最好的方法是使用 open cv 编写视频 然后通过
python
opencv
video
ffmpeg
h264
ffmpeg 用于将视频编码为 H264 编解码器格式
我有一个 mp4 视频文件 MPEG4 视频编解码器 我试图在 Linux 上使用 ffmpeg 将其转换为 H264 视频编解码器格式 原始 h 264 格式 版本 FFmpeg 版本 SVN r0 5 1 4 0 5 1 1ubuntu
ffmpeg
h264
Gstreamer - Android 上的硬件加速视频解码
我在 Android 手机上通过 RTP UDP 接收视频 但我发现 CPU 使用率非常高 几乎 100 的一个核心都用于解码视频 在高端设备上 视频播放几乎流畅 但在中低端设备上 我几乎每秒无法获得 1 帧 这是一个 H 264 视频流
Android
video
gstreamer
h264
hardwareacceleration
MFCreateFMPEG4MediaSink 不生成 MSE 兼容的 MP4
我正在尝试将 H 264 视频源流式传输到网络浏览器 Media Foundation 用于编码分段的 MPEG4 流 MFCreateFMPEG4MediaSink with MFTranscodeContainerType FMPEG4
MP4
h264
msmediafoundation
MSE
为什么 AVSampleBufferDisplayLayer 会失败并出现操作中断 (-11847)?
我正在使用一个AVSampleBufferDisplayLayer解码并显示从服务器流式传输的 H 264 视频 当我的应用程序进入后台然后返回前台时 解码过程就会搞砸 并且AVSampleBufferDisplayLayer失败 我看到的
ios
h264
videotoolbox
将 AVAssetWriter 与原始 NAL 单元结合使用
我在 iOS 文档中注意到AVAssetWriterInput你可以通过nil为了outputSettings字典来指定输入数据不应重新编码 用于对附加到输出的媒体进行编码的设置 传递 nil 来指定不应重新编码附加的样本 我想利用此功能来
iphone
ios
h264
avassetwriter
cmsamplebufferref
检测到损坏的 ffmpeg 默认设置
我在使用 X264 Fourcc 编解码器的 VideoWrite 时遇到 ffmpeg 错误 我已经安装了所有依赖项 如何纠正此问题 我一直在使用的示例代码如下 VideoWriter oVideoWriter path mp4 CV F
opencv
ffmpeg
VideoCapture
h264
libx264
如何使用Android MediaCodec编码相机数据(YUV420sp)
感谢您的关注 我想使用Android MediaCodec API对从Camera获取的视频帧进行编码 不幸的是 我没有成功做到这一点 我对 MediaCodec API 还不太熟悉 以下是我的代码 我需要你的帮助来弄清楚我应该做什么 1
Android
AndroidCamera
h264
videoencoding
解析 mdat MP4 中的 H264
我有一个仅包含 MP4 容器中的 mdat 原子的文件 mdat中的数据包含AVC数据 我知道数据的编码参数 该格式似乎不是附件 B 字节流格式 我想知道我将如何解析这个 我尝试过搜索切片标题 但运气不佳 是否可以在没有 NAL 的情况下解
MP4
h264
如何在没有 MediaExtractor 的情况下使用 MediaCodec 进行 H264
我需要在没有 MediaExtractor 的情况下使用 MediaCodec 并且我正在使用 FileInputStream 读取文件 目前它不起作用 它在屏幕上显示绿色的乱码图像 这是整个源代码 FileInputStream in n
Android
h264
stagefright
androidmediacodec
transportstream
使用 bufferedimages 将视频编码为 h264?
我正在尝试使用 java 将大量缓冲图像 由我的应用程序动态创建的预先保存的图像 转换为视频 并希望有一个库可以帮助完成该过程 我探索了许多不同的选项 例如 jcodec 没有关于如何使用它的文档 Xuggler 由于与jdk5及其相关库的
Java
video
h264
使用 ffmpeg 将视频从 .264 转换为 .265 (HEVC)
我看到关于这个主题的一些问题 但我仍然收到错误 我想要做的就是将库中的视频转换为 HEVC 以便它们占用更少的空间 我试过这个 ffmpeg i input mp4 c v libx265 output mp4 ffmpeg 似乎需要很长时
ffmpeg
h264
codec
quicktime
h265
ffmpeg 复制以保留时间戳
我正在尝试修改 HLS 段传输流 并使用 ffmpeg 保留其开始时间 但是 即使提到了 copyts 输出也不会保留输入文件的 start time 值 这是我的命令行 ffmpeg i fileSequence1 ts i x png
ffmpeg
h264
如何用FFMPEG正确将H264封装成FLV?
首先 标题中的 适当 指的是这个相关问题 https stackoverflow com questions 44952940 ffmpeg how to wrap h264 stream into flv container 其中的答案并
ffmpeg
h264
FLV
视频流基础设施
我们想建立一个实时视频聊天网站 并正在寻找基本的架构建议和 或针对要使用的特定框架的推荐 以下是该网站的基本功能 大多数流媒体将由一个人通过网络摄像头等进行现场直播 通常由 1 10 人观看 但最多可能有 100 多名观众 音频和视频不必是
video
Streaming
h264
当输入分辨率为 1200x1600 时,通过 C-API 进行 ffmpeg 解码会导致伪影。难道我做错了什么?
使用 C API 和 FFmpeg 5 1 我已经能够在 Android 上使用 libx264 对 h264 视频进行编码 现在我想在 Linux 上的 C 应用程序中重播它们 这些视频可以在浏览器或我尝试过的其他播放器 例如 ffmpe
c
ffmpeg
Decode
h264
使用libavcodec解码H264视频,C
我正在尝试使用 ffmpeg libavcodec 解码原始 h264 文件 但无法使其正常工作 目前输出应该是原始 YUV 文件 可以用GCC编译代码 gcc o decoder decoder c L lib llibavcodec l
c
gcc
ffmpeg
h264
libavcodec
开发 H264 硬件解码器 Android - Stagefright 还是 OpenMax IL?
我正在为 Android 开发 H264 H W 加速视频解码器 到目前为止 我已经接触过一些图书馆MediaCodec Stagefright OpenMax IL OpenMax AL and FFmpeg 经过一番研究 我发现 我找到
c
androidndk
h264
stagefright
openmax
«
1
2
3
4
5
6
...8
»