Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
iOS下逐帧读取视频
我正在寻找一种使用 iOS API 检索视频各个帧的方法 我尝试使用 AVAssetImageGenerator 但它似乎只提供最接近秒的帧 这对我的使用来说有点太粗糙了 根据我对文档的理解 AVAssetReader AVAssetRea
ios
video
frame
AVFoundation
corevideo
录制视频时将动态文本渲染到 CVPixelBufferRef 上
我正在使用录制视频和音频AVCaptureVideoDataOutput and AVCaptureAudioDataOutput并在captureOutput didOutputSampleBuffer fromConnection 委托
ios
Objectivec
AVFoundation
coreimage
corevideo
裁剪 CMSampleBuffer 并对其进行处理,而不转换为 CGImage
我一直在关注苹果直播摄像机编辑器 https developer apple com documentation avfoundation cameras and media capture avcamfilter applying fil
ios
coregraphics
metal
coreimage
corevideo
在 iOS 中创建 RGB CVOpenGLESTexture
我正在尝试创建一个3通道 CVOpenGLESTexture in iOS 我可以成功创建一个单通道通过指定纹理kCVPixelFormatType OneComponent8 in CVPixelBufferCreate and GL L
ios
textures
opengles20
corevideo
CVPixelBuffer 到 CIImage 总是返回 nil
我试图将从 AVPlayerItemVideoOutput 中提取的 PixelBuffer 转换为 CIImage 但总是为零 The Code if videoOutput hasNewPixelBufferForItemTime pl
ios
AVFoundation
coreimage
corevideo
如何从 CMSampleBufferRef 获取字节并通过网络发送
Am 使用 AVFoundation 框架捕获视频 在 Apple 文档的帮助下http developer apple com library ios documentation AudioVideo Conceptual AVFound
ios
VideoCapture
AVFoundation
videoprocessing
corevideo
使用 CIFilter 在 CALayer 层次结构中渲染视频
在我的 iOS 应用程序的 UI 中 我显示了一个复杂的层次结构CALayers 其中一层是AVPlayerLayer显示视频CIFilter实时应用 使用AVVideoComposition asset applyingCIFilters
ios
AVFoundation
cifilter
avasset
corevideo
使用OpenGL ES纹理缓存而不是glReadPixels来获取纹理数据
在 iOS 5 中 引入了 OpenGL ES 纹理缓存 以提供从相机视频数据到 OpenGL 的直接方式 而无需复制缓冲区 里面有关于纹理缓存的简单介绍会议 414 WWDC 2011 的 iOS 5 OpenGL ES 进展 http
ios
opengles20
glReadPixels
corevideo
如何直接更新像素——使用CGImage和直接CGDataProvider
实际问题 有几个答案可以解决我的问题 我可以强制CGImage从直接数据提供者 使用创建的CGDataProviderCreateDirect like CGContextDrawImage做 或者有其他方法可以设置 self layer
Objectivec
ios
opengles
coregraphics
corevideo