Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
OpenGL:仅使用一个帧缓冲区并切换目标纹理
我是否可以只创建一个帧缓冲区对象并通过在需要时切换其目标纹理来实现相同的结果 而不是使用多个帧缓冲区对象 在所有情况下这都是一个坏主意吗 如果是 为什么 我一直在实现一个功能render SetTargetTexture 在我的程序的 AP
OpenGL
Framebuffer
FBO
使用帧缓冲区将深度缓冲区渲染为纹理
我正在使用 JOGL 但这个问题通常适用于 OpenGL 似乎也有类似的问题 但它们要么是针对 GLSL 代码 与复制帧缓冲区的内容有关 要么是一般建议 使用帧缓冲区对象而不是glCopyTexSubImage2D Question 我正在
Java
c
OpenGL
JOGL
Framebuffer
如何使用 Linux 帧缓冲区旋转 Qt5 应用程序?
我有一个直接在 Linux 帧缓冲区 无 x Windows 上运行的嵌入式 Linux 应用程序 现在我们必须将显示屏物理旋转 180 度 如何让我的 Qt 应用程序旋转 使其不会出现颠倒 我看到参考使用以下选项 platform lin
Linux
QT
Qt5
ubuntu1604
Framebuffer
使用 GLFW + GLEW 时 glGenFramebuffers() 访问冲突
我收到此错误 执行位置 0x00000000 时发生访问冲突 当我在 Windows 上使用 GLFW GLEW 时 我使用的是 Windows 7 我也有自己的实现 从头开始 它创建一个窗口 初始化 OpenGL 上下文 初始化 GLEW
OpenGL
Framebuffer
glew
FBO
glfw
QGLWidget 和快速离屏渲染
是否可以在屏幕外完全渲染QGLWidget使用 Qt 无需将场景重新绘制到屏幕 从而完全避免缓冲区在监视器上翻转 我需要保存帧缓冲区上生成的每一帧 但是 由于序列由 4000 帧组成 并且屏幕上的时间间隔为15ms我花费4000 15ms
c
QT
OpenGL
Framebuffer
offscreen
如何在 Linux (Raspberry Pi) 上从帧缓冲区获取像素颜色
我正在尝试编写一个小程序来根据屏幕上某些像素的颜色来控制 RGB LED 的颜色 由于这是在运行 Raspbmc 的 Raspberry Pi 上 我无法使用 XLib 因为所有内容都是从帧缓冲区中绘制的 不确定这是否属实 但从我在常见问题
c
Linux
RaspberryPi
Framebuffer
xbmc
线性过滤能否用于 MSAA 纹理到非 MSAA 纹理的 FBO blit?
我有两个 2D 纹理 第一个是 MSAA 纹理 使用的目标为GL TEXTURE 2D MULTISAMPLE 第二个非 MSAA 纹理使用的目标为GL TEXTURE 2D 根据 OpenGL 的ARB texture multisamp
OpenGL
textures
Framebuffer
blit
MSAA
如何获取/设置默认帧缓冲区的宽度和高度?
我想知道我的默认帧缓冲区的尺寸 我读到将视口设置为特定值不会影响 设置帧缓冲区的尺寸 是否有任何 GL 要求 您无法通过 OpenGL 调用设置默认帧缓冲区的大小 它是窗口的大小 由窗口系统接口 例如Android上的EGL 控制 如果您想
OpenGL
opengles20
Framebuffer
使用 QOffscreenSurface 进行离屏渲染 - QPainter Alpha 笔颜色失败
我努力了这个方法 https stackoverflow com questions 31323749 easiest way for offscreen rendering with qopenglwidget 的回答尼基塔 费多尼特 h
QT
OpenGL
Framebuffer
offscreen
应用自动调整大小时旋转期间 iOS8 MKMapView 帧缓冲区错误
import AppDelegate h import
iOS8
mapkit
Framebuffer
autoresize
将 2 个像素点在一起
我在第一个像素的右边点了一个像素 但结果不同 第二个像素距离第一个像素很远 怎么了 org 100h change to 320x200 graphic mode mov ax 13 int 10h frame buffer locatio
Assembly
graphics
x86
DOS
Framebuffer
使用 OpenGL ES 2.0 进行模板制作
I am trying to figure out a way to cut out a certain region of a background texture such that a certain custom pattern i
opengles
opengles20
libgdx
Framebuffer
StencilBuffer
通过 Linux FrameBuffer 将像素绘制到屏幕
最近 我被一个奇怪的想法所震惊 从 dev urandom 获取输入 将相关字符转换为随机整数 然后使用这些整数作为像素的 rgb x y 值来绘制到屏幕上 我做了一些研究 在 StackOverflow 和其他地方 许多人建议您可以直接写
c
Linux
Framebuffer
OpenGL 通过 FBO 渲染到纹理 -- 不正确的显示与正常纹理
离屏渲染到纹理绑定的离屏帧缓冲区对象应该是微不足道的 但我遇到了一个问题 我无法理解 我的完整示例程序 目前仅限 2D 在这里 http pastebin com hSvXzhJT http pastebin com hSvXzhJT 请参
OpenGL
go
Framebuffer
rendertotexture
offscreen
无法通过多重采样渲染到纹理
我运行了帧缓冲区示例this http www open gl framebuffers page 原始代码 http www open gl content code c6 base txt 在osx 10 8中的xcode 4 6中使用
OpenGL
graphics
textures
Framebuffer
在 iPhone 上向屏幕外的 FBO 写入然后读取;在模拟器上有效但在设备上无效?
我正在尝试在 iPhone 上进行一些图像处理 基于 Apple 的 GLImageProcessing 示例 最终我想做的是将图像加载到纹理中 执行示例代码中的一项或多项操作 色调 饱和度 亮度等 然后读回生成的图像以供以后处理 保存 在
iphone
opengles
iossimulator
Framebuffer
rendertotexture
拍摄嵌入式 Linux 帧缓冲区的屏幕截图
我在评估套件 Zoom OMAP35x Torpedo 开发套件 上运行嵌入式 Linux 该板有一个 LCD 我希望能够拍摄屏幕截图并将其转换为 gif 或 png 我可以通过执行以下操作来获取原始数据 cp dev fb0 screen
ImageMagick
embeddedlinux
Framebuffer
如何从 Linux 帧缓冲区获取 RGB 像素值?
我想使用 Linux 以最有效的方式获取屏幕像素的 RGB 值 所以我决定使用C中的framebuffer库 fb h 访问帧缓冲设备 dev fb0 并直接从中读取 这是代码 include
c
Linux
Linuxkernel
devicedriver
Framebuffer
使用 Linux 帧缓冲区进行图形处理,但禁用控制台文本
我有一些 C 代码 可以在 Linux 帧缓冲区控制台上绘制简单的图形 我还使用树莓派及其复合视频输出 操作系统是 raspbian 我正在做一个不使用 X 的低级解决方案 我的图形运行良好 而且我还能够读取 USB 键盘并对按键做出响应
c
Linux
Framebuffer
如何通过Linux帧缓冲区在屏幕上显示某些内容?
我发现以下代码旨在在屏幕上绘制一个正方形 include
c
Linux
Framebuffer
1
2
3
»