【详细】摸索了三次后总结的安装CUDA的方法,一气呵成使用GPU跑代码

2023-05-16

第一次安装的时候真的是纯小白,各种概念都不懂,只知道使用GPU跑代码需要安装CUDA。弯路走了不少,前前后后被虐了一周,安装的非常艰辛,且混乱;

第二次安装是在同学电脑上,又绕了些弯路,不过这次只花了半天时间,当时非常自豪来着。

这次是第三次安装,有了第二次的经验,安装的非常非常顺利,可谓一气呵成。现在把过程发过来,是我的第一篇CSDN。有点点激动。

步骤简述

1.确认有Nvidia GPU

2.升级驱动程序

3.安装CUDA

4.安装GPU版Pytorch

关键:版本一定要对应,各个地方版本都要对应。最好经常查看与确认版本。

详细过程:

1.确认有GPU

在任务管理器-性能中,看GPU1中的型号。(GPU1是独显,GPU0是集显)

 

2.升级驱动程序:

官网下载,教程可参考:(51条消息) Windows更新NVIDIA显卡驱动_nvidia安装选显卡驱动还是图形驱动_振华OPPO的博客-CSDN博客

之后检查版本号。在NVIDIA控制面板,这里的版本显示472.84.

 

3.安装CUDA。

查看对应CUDA版本:

看这张表即可。(下图的表中能找到就行,可以不看原网址:CUDA 12.0 Release Notes — cuda-toolkit-release-notes 12.0 documentation (nvidia.com))

如刚刚版本472.84,在表中对应一下,发现>=452.39,可以安装CUDA11.8x。

官网下载对应CUDA:CUDA Toolkit Archive | NVIDIA Developer

注意点击与刚刚匹配的版本。这里是CUDA11.8。

 下载完双击安装即可。

检查是否安装成功:

搜索栏输入cmd回车(进入cmd),输入nvidia-smi

即可得到如图所示。这里显示的CUDA11.8,即安装成功。

 

4.安装GPU版torch。注意一定要下载对应版本!

确认CUDA型号与python版本,在下面的网址下载GPU版torch。(我之前官网下的有问题,推荐从这个网址下)

(另外,在这一步想查看torch版本的,可以在pythonpip下载torch,然后终端print版本,如x.xx.x+cpu,则说明是cpu版本的torch。安装好GPUtorch后,再重复这个步骤会显示x.xx.x+cu118

去网址 https://download.pytorch.org/whl/torch/ 下载gpu版本。在里面仔细找一下,名称中cu118代表cuda11.8cp39代表python3.9.(另外:上面链接只有torch,需要torchvision或者torchaudio的可以在这里找:https://download.pytorch.org/whl/torch_stable.html)

 

下载完gputorch后,在pythonpip安装

 pip install .\torch-1.13.0+cu116-cp39-cp39-win_amd64.whl (注意,名称要换成刚刚下载的版本)

安装好后,可以在终端pip list 在列表中找寻并查看torch安装的版本。

 最后,在终端

import torch,print(torch.__version__),print(torch.version.cuda),print(torch.cuda.is_available())

显示true则大功告成~

 

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

【详细】摸索了三次后总结的安装CUDA的方法,一气呵成使用GPU跑代码 的相关文章

  • 在 python docker 镜像上使用 GPU

    我正在使用一个python 3 7 4 slim busterdocker 镜像 我无法更改它 我想知道如何使用我的英伟达 GPU on it 我通常用一个tensorflow tensorflow 1 14 0 gpu py3并用一个简单
  • Cuda Bayer/CFA 去马赛克示例

    我编写了一个 CUDA4 Bayer 去马赛克例程 但它比在 16 核 GTS250 上运行的单线程 CPU 代码慢 块大小是 16 16 图像暗淡是 16 的倍数 但更改此值并不会改善它 我做了什么明显愚蠢的事情吗 calling rou
  • Tensorflow:如何在模型训练过程中实时监控 GPU 性能?

    我是 Ubuntu 和 GPU 新手 最近在我们的实验室中使用了一台配备 Ubuntu 16 04 和 4 个 NVIDIA 1080ti GPU 的新 PC 该机还拥有i7 16核处理器 我有一些基本问题 为 GPU 安装 Tensorf
  • 如何将CUDA时钟周期转换为毫秒?

    我想用一些代码来测量时间within我的内核需要 我已经关注了这个问题 https stackoverflow com questions 11209228 timing different sections in cuda kernel连
  • CUDA程序导致nvidia驱动程序崩溃

    当我超过大约 500 次试验和 256 个完整块时 我的 monte carlo pi 计算 CUDA 程序导致我的 nvidia 驱动程序崩溃 这似乎发生在 monteCarlo 内核函数中 任何帮助都会受到赞赏 include
  • OpenCV GPU Farneback 光流在多线程中表现不佳

    我的应用程序使用 Opencv GPU 类gpu FarnebackOpticalFlow计算输入视频的一对连续帧之间的光流 为了加速该过程 我利用 OpenCV 的 TBB 支持在多线程中运行该方法 然而 多线程性能并不像单线程那样 为了
  • 传递给 CUDA 的结构中的指针

    我已经搞砸了一段时间了 但似乎无法正确处理 我正在尝试将包含数组的对象复制到 CUDA 设备内存中 然后再复制回来 但当我遇到它时我会跨过那座桥 struct MyData float data int dataLen void copyT
  • 在linux上编译一个基本的OpenCV + Cuda程序

    我过去在linux上使用过opencv 但没有使用过cuda 几个月来我一直在与以下编译错误作斗争 在尝试了许多解决方案后 我放弃并使用 Windows 不过 我真的很想在 Linux 上工作 这是我用来编译 opencv gpu 网站上给
  • 如何在 Visual Studio 2010 中设置 CUDA 编译器标志?

    经过坚持不懈的得到error identifier atomicAdd is undefined 我找到了编译的解决方案 arch sm 20旗帜 但是如何在 VS 2010 中传递这个编译器标志呢 我已经尝试过如下Project gt P
  • 如何在使用 GPU 支持编译的 macOS 上安装 Xgboost?

    我尝试在过去 3 天的 MacOS Mojave 10 14 6 上安装集成了 GPU 支持的 xgboost 但是没有成功 我尝试了两种方法 pip 安装 xgboost xgboost 安装在这里 并且在没有 GPU 选项的情况下成功运
  • 如何确定完整的 CUDA 版本 + 颠覆版本?

    Linux 上的 CUDA 发行版曾经有一个名为version txt例如 CUDA Version 10 2 89 这非常有用 但是 从 CUDA 11 1 开始 该文件不再存在 我如何在 Linux 上通过命令行确定并检查 path t
  • CUDA Visual Studio 2010 Express 构建错误

    我正在尝试在 64 位 Windows 7 上使用 Visual Studio 2010 Express 在 Windows 上开始 CUDA 编程 我花了一段时间来设置环境 然后我刚刚编写了我的第一个程序 helloWorld cu 目前
  • DirectX 世界视图矩阵乘法 - GPU 或 CPU 的地方

    我是 directx 的新手 但令我惊讶的是 我看到的大多数示例中 世界矩阵和视图矩阵都是作为顶点着色器的一部分相乘 而不是与 CPU 相乘并将结果传递给着色器 对于刚性对象 这意味着您为对象的每个顶点将相同的两个矩阵相乘一次 我知道 GP
  • NvCplGetThermalSettings 返回 false

    问题 您好 我正在尝试使用 Delphi 获取 nividia gtx 980 的 GPU 温度 我看过C 问题 他的解决方案是不使用nvcpl dll 我认为这不是正确的解决方案 因为 nivida 有完整的文档说明如何处理 API 见下
  • 尝试构建我的 CUDA 程序时出现错误 MSB4062

    当我尝试构建我的第一个 GPU 程序时 出现以下错误 有什么建议可能会出什么问题吗 错误 1 错误 MSB4062 Nvda Build CudaTasks SanitizePaths 任务 无法从程序集 C Program 加载 文件 M
  • cudaSetDevice() 对 CUDA 设备的上下文堆栈有何作用?

    假设我有一个与设备关联的活动 CUDA 上下文i 我现在打电话cudaSetDevice i 会发生什么 Nothing 主上下文取代了堆栈顶部 主上下文被压入堆栈 事实上 这似乎是不一致的 我编写了这个程序 在具有单个设备的机器上运行 i
  • 无法满足显式设备规范“/device:GPU:0”,因为没有匹配的设备

    我想在我的 Ubuntu 14 04 机器上使用 TensorFlow 0 12 作为 GPU 但是 当将设备分配给节点时 我收到以下错误 InvalidArgumentError see above for traceback Canno
  • 错误:NVIDIA-SMI 失败,因为无法与 NVIDIA 驱动程序通信

    NVIDIA SMI 抛出此错误 NVIDIA SMI 失败 因为无法与 NVIDIA 通信 司机 确保安装了最新的 NVIDIA 驱动程序并且 跑步 我清除了 NVIDIA 并按照提到的步骤重新安装了它here https askubun
  • 无法在内存位置找到异常源:cudaError_enum

    我正在尝试确定 Microsoft C 异常的来源 test fft exe 中 0x770ab9bc 处的第一次机会异常 Microsoft C 异常 内存位置 0x016cf234 处的 cudaError enum 我的构建环境是 I
  • GPU的编程语言有哪些

    我读过一篇文章 指出 GPU 是超级计算的未来 我想知道在GPU上编程使用什么编程语言 OpenCL 是开放式跨平台解决方案 可在 GPU 和 CPU 上运行 另一个是 NVIDIA 为其 GPU 构建的 CUDA HLSL Cg 等少数几

随机推荐