Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何强制我想要的任何显示分辨率/时间?
我无法找到一种方法来在我的 C 程序中强制执行我想要的任何显示分辨率 计时 我运行的是带有 GeForce 210 显卡的 Windows 7 我当前实现这些自定义分辨率的方法是使用驱动程序 GUI 手动添加自定义分辨率 然后使用 Wind
c
graphics
resolution
NVIDIA
Cuda 内核返回向量
我有一个单词列表 我的目标是匹配一个非常非常长的短语中的每个单词 我在匹配每个单词时没有问题 我唯一的问题是返回包含每个匹配信息的结构向量 In code typedef struct int A B C Match global void
c
CUDA
parallelprocessing
NVIDIA
重新启动 AMI 后,NVidia 驱动程序未在 AWS 上运行
大家好 我有以下问题 我用这个启动了一个 P2 实例AMI https aws amazon com marketplace pp B00FYCDDTE 我安装了一些工具 如 screen torch 等 然后我成功地使用 GPU 运行了一
amazonwebservices
amazonec2
NVIDIA
Drivers
NVidia CUDA 工具包 7.5.27 无法在 OS X 上安装
下载 CUDA 工具包 DMG 可以工作 但安装程序在选择软件包后失败 并出现神秘的 软件包清单解析错误 错误 使用内部二进制文件从命令行运行安装程序也会以类似的方式失败 var log cuda installer log 处的日志文件基
MacOS
CUDA
NVIDIA
CUDA 运行时 API 错误 38:未检测到支持 CUDA 的设备
情况 我有一个 2 gpu 服务器 Ubuntu 12 04 我将 Tesla C1060 与 GTX 670 交换 然后我在 4 2 上安装了 CUDA 5 0 之后我编译了除 simpleMPI 之外的所有示例 没有错误 但当我跑步时
CUDA
NVIDIA
如何在 Windows 10 上的单个进程中使用辅助 GPU 上 100% 的 VRAM?
这是在 Windows 10 计算机上 没有连接到 Nvidia 卡的显示器 我已经包含了 nvida smi 的输出 显示 gt 5 04G 可用 这是张量流代码 要求它分配的内存比我之前看到的稍多一些 我希望它尽可能接近内存分数 1 0
tensorflow
CUDA
Windows10
NVIDIA
Linux 中没有 X.org 的 OpenGL
我想在 Linux 中打开一个没有 X 的 OpenGL 上下文 有什么办法可以做到吗 我知道集成英特尔显卡硬件是可能的 尽管大多数人的系统中都有 Nvidia 卡 我想要一个适用于 Nvidia 卡的解决方案 如果除了通过集成英特尔硬件之
Linux
OpenGL
X11
NVIDIA
OpenGL sRGB 帧缓冲区奇怪之处
我正在使用 GLFW3 创建上下文 我注意到GLFW SRGB CAPABLE属性好像没有什么影响 无论我将其设置为什么 我总是会在以下情况下获得 sRGB 转换 GL FRAMEBUFFER SRGB已启用 我的理解是 当GL FRAME
OpenGL
NVIDIA
glfw
如何在 Thrust 中将 make_transform_iterator() 与counting_iterator<> 和execution_policy 一起使用?
我尝试使用 MSVS2012 CUDA5 5 Thrust 1 7 编译此代码 include
CUDA
GPGPU
NVIDIA
Thrust
我可以在 Windows Server 2019 中运行 NVIDIA DeepStream SDK 吗?
System 我安装了 Windows Server 2019 操作系统NVIDIA Tesla T4 张量核心 GPU Goal 计划从 IP 摄像机读取实时流视频并进一步逐帧处理 目标是利用 NVIDIA DeepStream SDK
Docker
NVIDIA
dockerimage
nvidiadocker
nvidiadeepstream
无法在 docker 上执行 nvidia 运行时
我正在尝试让 nvidia docker 在我的 centos7 系统上运行 cat etc systemd system docker service d override conf Service ExecStart ExecStart
Docker
Runtime
NVIDIA
nvidiadocker
如何让TensorFlow 100%使用GPU?
我有一台配备 RTX 2060 GPU 的笔记本电脑 我使用 Keras 和 TF 2 在其上训练 LSTM 我还通过以下方式监控 GPU 使用情况nvidia smi我注意到 jupyter 笔记本和 TF 的使用率最多为 35 而 GP
tensorflow
Keras
deeplearning
GPU
NVIDIA
NVIDIA Fermi 中的 L2 缓存
在查看NVIDIA Fermi架构中的性能计数器名称 cuda的doc文件夹中的Compute profiler txt文件 时 我注意到对于L2缓存未命中 有两个性能计数器 l2 subp0 read sector misses和l2 s
CUDA
GPU
GPGPU
NVIDIA
仅在 NVIDIA 上的 glDrawArrays 上的 Java OpenGL EXCEPTION_ACCESS_VIOLATION
我正在使用 lwjgl 开发一个 java 游戏 它是 OpenGL 实现 从来没有任何问题 直到我与一位使用 NVIDIA 而不是 AMD 的同事交换它 突然它在 AMD 上工作的线路上崩溃 但它只在代码中的那个点崩溃 这是最磨损的部分
Java
OpenGL
lwjgl
NVIDIA
gldrawarrays
什么是银行冲突? (进行Cuda/OpenCL编程)
我一直在阅读 CUDA 和 OpenCL 的编程指南 但我无法弄清楚银行冲突是什么 他们只是深入研究如何解决问题 而不详细说明主题本身 有人能帮我理解吗 如果帮助是在 CUDA OpenCL 的背景下 或者只是计算机科学中一般的银行冲突 我
Multithreading
CUDA
opencl
NVIDIA
bankconflict
捕获 SYCL 异常:错误:[ComputeCpp:RT0101] 无法创建内核((内核名称:SYCL_class_multiply))
我克隆了https github com codeplaysoftware computecpp sdk git并修改了computecpp sdk samples accessors accessors cpp file 我刚刚添加了st
c
opencl
NVIDIA
sycl
spir
我的 GPU 上的总线程数、块数和网格数。
For the NVIDIA GEFORCE 940mx GPU Device Query shows it has 3 Multiprocessor and 128 cores for each MP 每个多处理器的线程数 2048 所以
CUDA
GPU
NVIDIA
nVIDIA 驱动程序如何将设备索引分配给 GPU?
假设在单个节点上 有多个具有不同计算能力的设备 nvidia如何对它们进行排名 我的排名是指cudaSetDevice分配的数字 有关于此的一般准则吗 谢谢 我相信对应的设备顺序cuda获取设备 and cudaSetDevice 即 CU
CUDA
NVIDIA
如何理解“warp 中的所有线程同时执行相同的指令”。在 GPU 中?
我在读专业CUDA C编程 并在GPU 架构概述部分 CUDA 采用单指令多线程 SIMT 架构来管理和执行 32 个线程组 称为 warp warp 中的所有线程同时执行相同的指令 每个线程都有自己的指令地址计数器和寄存器状态 并根据自己
CUDA
NVIDIA
GPU
multiplegpu
将 2D 数组复制到已知可变宽度的 GPU
我正在研究如何将每行可变宽度的 2D 数组复制到 GPU 中 int rows 1000 int cols int host matrix malloc sizeof int rows int d array int length Each
CUDA
GPU
GPGPU
NVIDIA
«
1
2
3
4
5
6
7
...17
»