Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
多个进程可以共享一个 CUDA 上下文吗?
这个问题是 Jason R 的后续问题comment https stackoverflow com questions 29964392 multiple cuda contexts for one device any sense co
CUDA
multiprocessing
GPU
cudacontext
CUDA 中的广义霍夫变换 - 如何加快分箱过程?
正如标题所示 我正在对并行计算机视觉技术进行一些个人研究 使用 CUDA 我尝试实现 GPGPU 版本的霍夫变换 我遇到的唯一问题是在投票过程中 我调用atomicAdd 来防止多个同时写入操作 但我似乎没有获得太多的性能效率 我在网上搜索
CUDA
GPU
GPGPU
houghtransform
CUDA素数生成
当数据大小增加超过 260k 时 我的 CUDA 程序停止工作 它不打印任何内容 有人能告诉我为什么会发生这种情况吗 这是我的第一个 CUDA 程序 如果我想要更大的素数 如何在 CUDA 上使用大于 long long int 的数据类型
c
CUDA
GPU
primes
有没有办法使用 GPU 调整图像大小?
有没有办法使用可通过 NET 应用程序使用的 GPU 图形卡 调整图像大小 我正在寻找一种极其高效的方法来调整图像大小 并且听说 GPU 可以比 CPU 更快地完成此操作 使用 C 的 GDI 是否有已知的实现或示例代码使用 GPU 来调整
c
NET
GPU
Imaging
OpenCV GPU Farneback 光流在多线程中表现不佳
我的应用程序使用 Opencv GPU 类gpu FarnebackOpticalFlow计算输入视频的一对连续帧之间的光流 为了加速该过程 我利用 OpenCV 的 TBB 支持在多线程中运行该方法 然而 多线程性能并不像单线程那样 为了
c
Multithreading
opencv
GPU
opticalflow
同时使用 2 个 GPU 调用 cudaMalloc 时性能较差
我有一个应用程序 可以在用户系统上的 GPU 之间分配处理负载 基本上 每个 GPU 都有一个 CPU 线程来启动一个GPU处理间隔当由主应用程序线程定期触发时 考虑以下图像 使用 NVIDIA 的 CUDA 分析器工具生成 作为示例GPU
CUDA
parallelprocessing
Thrust
GPU
multigpu
如何在C++中的cudaDeviceReset()之后重用tensorflow?
我正在使用 C 开发一个大型 CUDA 应用程序 该应用程序运行各种模型 需要完全释放所有 GPU 内存 否则其他操作将失败 我能够在关闭所有 tf 会话并运行 cudaDeviceReset 后释放所有内存 但之后我无法运行任何新的张量流
c
tensorflow
GPU
Tensorflow:如何在模型训练过程中实时监控 GPU 性能?
我是 Ubuntu 和 GPU 新手 最近在我们的实验室中使用了一台配备 Ubuntu 16 04 和 4 个 NVIDIA 1080ti GPU 的新 PC 该机还拥有i7 16核处理器 我有一些基本问题 为 GPU 安装 Tensorf
performance
tensorflow
GPU
带 GPU 的 Lightgbm 分类器
model lgbm LGBMClassifier n estimators 1250 num leaves 128 learning rate 0 009 verbose 1 使用 LGBM 分类器 现在有没有办法通过 GPU 来使用它
python
machinelearning
GPU
lightGBM
鉴于 GPU 有任务队列并且是异步的,计算 FPS 的正确方法是什么?
我始终认为计算 FPS 的正确方法是简单地计算绘制循环迭代所需的时间 互联网上的大部分内容似乎都是一致的 But 现代显卡被视为异步服务器 因此绘制循环会发出 GPU 上已有的顶点 纹理 等数据的绘制指令 这些调用不会阻塞调用线程 直到 G
OpenGL
profiling
GPU
为什么 PyTorch nn.Module.cuda() 不将模块张量移动到 GPU,而仅将参数和缓冲区移动到 GPU?
nn Module cuda 将所有模型参数和缓冲区移动到 GPU 但为什么不是模型成员张量呢 class ToyModule torch nn Module def init self gt None super ToyModule se
python
Pytorch
GPU
tensor
在 python docker 镜像上使用 GPU
我正在使用一个python 3 7 4 slim busterdocker 镜像 我无法更改它 我想知道如何使用我的英伟达 GPU on it 我通常用一个tensorflow tensorflow 1 14 0 gpu py3并用一个简单
python
Docker
Dockerfile
GPU
NVIDIA
Tensorflow 2:如何在 GPU 和 CPU 之间切换执行?
In tensorflow1 X 独立keras2 X 中 我曾经使用以下代码片段在 GPU 上的训练和 CPU 上运行推理之间切换 由于某种原因 我的 RNN 模型速度要快得多 keras backend clear session de
python
GPU
tensorflow20
tfkeras
某些子网格未使用 CUDA 动态并行执行
我正在尝试 CUDA 5 0 GTK 110 中的新动态并行功能 我遇到了一个奇怪的行为 即我的程序没有返回某些配置的预期结果 不仅是意外的 而且每次启动都会出现不同的结果 现在我想我找到了问题的根源 似乎当生成太多子网格时 某些子网格 由
c
CUDA
GPGPU
GPU
如何在 Windows 上的 nvidia GPU 的 Visual Studio 2010 中配置 OpenCL?
我在华硕笔记本电脑上的 Wwindows 7 操作系统上使用 NVIDIA GeForce GTX 480 GPU 我已经为 CUDA 4 2 配置了 Visual Studio 2010 如何在 Visual Studio 2010 上为
CUDA
opencl
GPGPU
GPU
Keras 看到我的 GPU,但在训练神经网络时不使用它
Keras TensorFlow 不使用我的 GPU 为了尝试让我的GPU与tensorflow一起工作 我通过pip安装了tensorflow gpu 我在Windows上使用Anaconda 我有nvidia 1080ti print
python
tensorflow
Keras
GPU
cuda中的count3非常慢
我在 CUDA 中编写了一个小程序 用于计算 C 数组中有多少个 3 并打印它们 include
c
CUDA
GPU
Ubuntu 11.10/12.04 上的 CUDA“无兼容设备”错误
一段时间以来 我一直在尝试在我的笔记本电脑上设置 Ubuntu 环境来进行 CUDA 编程 我目前双启动 Windows 8 和 Ubuntu 12 04 并想在 Ubuntu 上安装 CUDA 5 该笔记本电脑配有 GeForce GT
CUDA
ubuntu1204
GPU
GPU编程简介[关闭]
Closed 这个问题是基于意见的 help closed questions 目前不接受答案 每个人的桌面上都有一台以显卡 GPU 形式存在的巨大的大规模并行超级计算机 GPU 社区的 hello world 相当于什么 我该做什么 去哪
GPU
Ubuntu - 如何判断CPU应用程序当前是否正在使用AVX或SSE?
我目前在许多具有 GPU 的服务器上运行 BOINC 服务器运行 GPU 和 CPU BOINC 应用程序 由于 AVX 和 SSE 在 CPU 应用程序中使用时会降低 CPU 频率 因此我必须选择一起运行哪个 CPU GPU 因为某些 G
GPU
SSE
avx
avx2
boinc
«
1
2
3
4
5
6
...23
»