Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
运行时 API 应用程序中的 cuda 上下文创建和资源关联
我想了解如何在 cuda 运行时 API 应用程序中创建 cuda 上下文并与内核关联 我知道这是由驱动程序 API 在幕后完成的 但我想了解一下创作的时间线 首先 我知道 cudaRegisterFatBinary 是第一个 cuda a
CUDA
cudacontext
多个进程可以共享一个 CUDA 上下文吗?
这个问题是 Jason R 的后续问题comment https stackoverflow com questions 29964392 multiple cuda contexts for one device any sense co
CUDA
multiprocessing
GPU
cudacontext
异常后重置 Cuda 上下文
我有一个使用 Cuda C 的工作应用程序 但有时 由于内存泄漏 会引发异常 我需要能够实时重置 GPU 我的应用程序是服务器 因此它必须保持可用 我尝试过类似的方法 但似乎不起作用 try do process using GPU cat
c
Exception
CUDA
reset
cudacontext
cuDevicePrimaryCtxRetain() 是否用于在多个进程之间拥有持久的 CUDA 上下文对象?
例如 仅使用驱动程序 api 我对下面的单个进程进行了分析 cuCtxCreate cuCtxCreate 开销几乎相当于与 GPU 之间的 300MB 数据复制 在 CUDA 文档中here http docs nvidia com cu
CUDA
cudacontext
什么是 CUDA 上下文?
谁能解释一下或者给我推荐一些关于什么是 CUDA 上下文的好资料 我搜索了 CUDA 开发者指南 但对它并不满意 任何解释或帮助都会很棒 cuda API 公开了有状态库的功能 两个连续的调用彼此相关 简而言之 上下文就是它的状态 The
CUDA
NVIDIA
cudacontext
是否可以在应用程序之间共享 Cuda 上下文?
我想在两个独立的 Linux 进程之间传递 Cuda 上下文 使用我已经设置的 POSIX 消息队列 Using cuCtxPopCurrent and cuCtxPushCurrent 我可以获得上下文指针 但是这个指针是在我调用该函数的
Linux
CUDA
GPU
interprocess
cudacontext
创建 CUDA 上下文的差异
我有一个使用三个内核的程序 为了获得加速 我做了一个虚拟内存复制来创建一个上下文 如下所示 global void warmStart int f f 0 它是在内核之前启动的 我想按如下方式计时 int dFlag NULL cudaMa
CUDA
NVIDIA
nvcc
cudacontext