Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
使 CUDA 内存不足
我正在尝试训练网络 但我明白了 我将批量大小设置为 300 并收到此错误 但即使我将其减少到 100 我仍然收到此错误 更令人沮丧的是 在 1200 个图像上运行 10 epoch 大约需要 40 分钟 有什么建议吗 错了 我怎样才能加快这
deeplearning
GPU
Pytorch
NVIDIA
Visual Studio - 过滤掉 nvcc 警告
我正在编写 CUDA 程序 但收到令人讨厌的警告 Warning Cannot tell what pointer points to assuming global memory space 这是来自 nvcc 我无法禁用它 有没有办法过
c
VisualStudio
visualstudio2012
CUDA
NVIDIA
CUDA程序导致nvidia驱动程序崩溃
当我超过大约 500 次试验和 256 个完整块时 我的 monte carlo pi 计算 CUDA 程序导致我的 nvidia 驱动程序崩溃 这似乎发生在 monteCarlo 内核函数中 任何帮助都会受到赞赏 include
Crash
CUDA
Driver
NVIDIA
Nvidia Theano docker 镜像不可用
尝试运行 docker 命令 nvidia docker run d p 8888 8888 e PASSWORD 123abcChangeThis theano secure start notebook sh Then open you
python
Docker
Theano
NVIDIA
jupyternotebook
cudaMemcpyToSymbol 的问题
我正在尝试复制到恒定内存 但我不能 因为我对 cudaMemcpyToSymbol 函数的用法有误解 我正在努力追随this http developer download nvidia com compute cuda 4 1 rel t
CUDA
NVIDIA
在 python docker 镜像上使用 GPU
我正在使用一个python 3 7 4 slim busterdocker 镜像 我无法更改它 我想知道如何使用我的英伟达 GPU on it 我通常用一个tensorflow tensorflow 1 14 0 gpu py3并用一个简单
python
Docker
Dockerfile
GPU
NVIDIA
使用内置显卡,没有NVIDIA显卡,可以使用CUDA和Caffe库吗?
使用内置显卡 没有 NVIDIA 显卡 可以使用 CUDA 和 Caffe 库吗 我的操作系统是 ubuntu 15 CPU为 Intel i5 4670 3 40GHz 4核 内存为12 0GB 我想开始学习深度学习 CUDA 适用于 N
machinelearning
CUDA
NVIDIA
deeplearning
caffe
是否可以在设备函数中调用cufft库调用?
我在主机代码中使用 cuFFT 库调用 它们工作正常 但我想从内核调用 cuFFT 库 早期版本的 CUDA 没有这种支持 但是有了动态并行性 这可能吗 如果有任何关于如何实现这一目标的示例 那就太好了 尽管在 Kepler cc 3 5
CUDA
NVIDIA
cufft
OpenCL 在调用 clGetPlatformIDs 时崩溃
我是 OpenCL 新手 在配备 Intel R HD Graphics 4000 运行 Windows 7 的 Core i5 计算机上工作 我安装了支持 OpenCL 的最新 Intel 驱动程序 GpuCapsViewer 确认我有
c
opencl
intel
NVIDIA
如何检查 PyTorch 是否正在使用 GPU?
如何检查 PyTorch 是否正在使用 GPU 这nvidia smi命令可以检测 GPU 活动 但我想直接从 Python 脚本内部检查它 这些功能应该有助于 gt gt gt import torch gt gt gt torch cu
python
memorymanagement
GPU
NVIDIA
Pytorch
如何使 TensorFlow 在具有 2.x 功能的 GPU 上运行?
我已在 Linux Ubuntu 16 04 上成功安装了tensorflow GPU 并进行了一些小的更改 以使其能够与新的 Ubuntu LTS 版本配合使用 然而 我认为 谁知道为什么 我的 GPU 满足计算能力大于 3 5 的最低要
CUDA
tensorflow
NVIDIA
cuDNN
什么是具有强度 1 边缘矩阵的设备互连 StreamExecutor
我有四个 NVIDIA GTX 1080 显卡 当我初始化会话时 我看到以下控制台输出 Adding visible gpu devices 0 1 2 3 Device interconnect StreamExecutor with s
tensorflow
NVIDIA
如何消除 opencl 代码中的 CL_INVALID_PLATFORM 错误?
使用 OpenCL 进行简单的矩阵乘法 Multiply two matrices A B C include
opencl
NVIDIA
OpenGL 3:glBindVertexArray 使 GL_ELEMENT_ARRAY_BUFFER 无效
我确信如果你通过绑定缓冲区glBindBuffer 您可以放心地假设它保持绑定状态 直到目标通过另一个调用反弹glBindBuffer 因此 当我发现调用时 我感到非常惊讶glBindVertexArray 将绑定到 GL ELEMENT
c
OpenGL
NVIDIA
opengl3
CUDA 标量和 SIMD 视频指令的效率
SIMD指令的吞吐量低于32位整数运算 如果是 SM2 0 仅标量指令版本 则低 2 倍 如果是 SM3 0 则低 6 倍 什么情况下适合使用它们 如果您的数据已经以 SIMD 视频指令本机处理的格式打包 则需要多个步骤对其进行解包 以便可
CUDA
NVIDIA
SIMD
如何更改单个显示器的伽玛斜坡(NVidia Config)?
我尝试仅更改一个屏幕而不是所有屏幕的伽玛值 I use 这段代码 http devadd com 2010 10 too bright too early 帮我 但是这个SetDeviceGammaRamp GetDC IntPtr Zer
c
screen
NVIDIA
nvidia驱动、cuda驱动和cuda工具包之间有什么关系?
在nvidia驱动包中 有libcuda so cuda驱动和nvidia驱动一样吗 cuda工具包和libcuda so之间有什么关系 来自cuda文档 http docs nvidia com cuda cuda c programmi
CUDA
NVIDIA
有关 CUDA 中统一虚拟寻址 (UVA) 的信息/示例
我试图理解 CUDA 中统一虚拟寻址 UVA 的概念 我有两个问题 是否有任何示例 伪 代码可以演示这个概念 我在 CUDA C 编程指南中读到 UVA 只能在 64 位操作系统上使用 为什么会这样呢 A 统一虚拟地址空间 http doc
CUDA
GPU
NVIDIA
合理化我的简单 OpenCL 内核中有关全局内存的情况
const char programSource kernel void vecAdd global int a global int b global int c int gid get global id 0 for int i 0 i
memory
CUDA
opencl
NVIDIA
nvcc 和 NVIDIA-smi 显示的不同 CUDA 版本
我对运行时显示的不同 CUDA 版本感到非常困惑which nvcc and nvidia smi 我的 ubuntu 16 04 上安装了 cuda9 2 和 cuda10 现在我将 PATH 设置为指向 cuda9 2 所以当我跑步时
CUDA
NVIDIA
1
2
3
4
5
6
...17
»