NVIDIA显卡及架构介绍

2023-05-16

【版权申明】未经博主同意,谢绝转载!(请尊重原创,博主保留追究权);

本博客的内容来自于:NVIDIA显卡及架构介绍;

学习、合作与交流联系q384660495;

本博客的内容仅供学习与参考,并非营利;

文章目录

  • 一、NVIDIA显卡系列:
  • 二、架构排序(时间顺序):
  • 三、如何确定我的计算机上搭载了哪款 GPU?
  • 四、linux下查看GPU版本和详情信息
    • 1、查看CUDA版本
    • 2、查看cudnn版本
    • 3、查看GPU版本信息和使用情况
    • 4、查看GPU型号
  • 五、CPU,GPU,TPU,NPU都是什么?
  • 参考资料


一、NVIDIA显卡系列:

  1. Tegra: 手机和嵌入式设备用的(了解即可)
  2. GeForce: 显示器用的,比如电脑的显卡
  3. Quadro: 专业绘图
  4. Tesla: 大规模计算,比如深度学习训练

主要关注GeForce和Tesla,GeForce日常用,Tesla计算专用卡。

二、架构排序(时间顺序):

Tesla(特斯拉): 市面已经没有相关显卡
Fermi(费米):GeForce 400, 500, 600, GT-630
Kepler(开普勒):Tesla K40/K80, GeForce 700, GT-730
Maxwell(麦克斯韦尔): Tesla/Quadro M series GeForce 900, GTX-970
Pascal(帕斯卡): Tesla p100,GTX 1080, GTX 1070, GTX 1060
Votal(伏打): Tesla V100, GTX 1180
Turing(图灵): T4,GTX 1660 Ti, RTX 2060
Ampere(安培): A100

架构TeslaFermiKeplerMaxcellPascallVoltaTuring
GPU时代1.02.03.05.06.07.07.5
时间2008201020122014201620172018

计算卡进化历程
描述GPU有两个指标,一个是CUDA的核心数量,第二个是内存大小,在评估时主要考虑峰值计算性能和内存带宽,一般核心数量越多,TFlops越大,效果越好,在选购显卡的时候要首先根据用途选择对应的系列,然后看相应的计算性能和内存。

三、如何确定我的计算机上搭载了哪款 GPU?

答案:

  1. 在 Windows 计算机上:

    • 在桌面上单击鼠标右键
    • 如果弹出窗口中出现了“NVIDIA 控制面板”或“NVIDIA Display”,则您使用的是 NVIDIA GPU
    • 单击弹出窗口中的“NVIDIA 控制面板”或“NVIDIA Display”
    • 查看“显卡信息”
    • 您即可看到 NVIDIA GPU 的名称
  2. 在 Apple 计算机上:

    • 单击“Apple Menu”(Apple 菜单)
    • 单击“About this Mac”(关于本 Mac)
    • 单击“More Info”(更多信息)
    • 选择“Contents”(内容)列表下的“Graphics/Displays”(显卡/显示器)

四、linux下查看GPU版本和详情信息

1、查看CUDA版本

方法一:查看文件

cat  /usr/local/cuda/version.txt

方法二:命令

nvcc --version

2、查看cudnn版本

cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2

3、查看GPU版本信息和使用情况

nvidia-smi

gpu使用信息

查看NVIDIA驱动版本

sudo dpkg --list | grep nvidia-*

4、查看GPU型号

lspci | grep -i nvidia

五、CPU,GPU,TPU,NPU都是什么?

中央处理器(CPU),是电子计算机的主要设备之一,电脑中的核心配件。其功能主要是解释计算机指令以及处理计算机软件中的数据。CPU是计算机中负责读取指令,对指令译码并执行指令的核心部件。中央处理器主要包括两个部分,即控制器、运算器,其中还包括高速及实现它们缓冲处理器之间联系的数据、控制的总线。电子计算机三大核心部件就是CPU、内部存储器、输入/输出设备。中央处理器的功效主要为处理指令、执行操作、控制时间、处理数据。

图形处理器(英语:Graphics Processing Unit,缩写:GPU),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。

TPU(Tensor Processing Unit)即张量处理单元,是一款为机器学习而定制的芯片,经过了专门深度机器学习方面的训练,它有更高效能(每瓦计算能力)。

嵌入式神经网络处理器(NPU)采用“数据驱动并行计算”的架构,特别擅长处理视频、图像类的海量多媒体数据。NPU处理器专门为物联网人工智能而设计,用于加速神经网络的运算,解决传统芯片在神经网络运算时效率低下的问题。

参考资料

NVIDIA显卡架构

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

NVIDIA显卡及架构介绍 的相关文章

  • 了解 CUDA 网格维度、块维度和线程组织(简单解释)[关闭]

    Closed 这个问题需要多问focused 目前不接受答案 GPU 如何组织线程来执行 Hardware 例如 如果 GPU 设备有 4 个多处理单元 并且每个单元可以运行 768 个线程 那么在给定时刻 真正并行运行的线程不会超过 4
  • OpenCL - 多个 GPU 缓冲区同步

    我有一个 OpenCL 内核 用于计算系统中其他粒子对某个粒子施加的总力 然后是另一个积分粒子位置 速度的内核 我想在多个 GPU 上并行化这些内核 基本上为每个 GPU 分配一定数量的粒子 但是 我必须多次运行该内核 并且每个 GPU 的
  • 如何测量 NVIDIA CUDA 中的内部内核时间?

    我想测量GPU内核的时间 如何在NVIDIA CUDA中测量它 例如 global void kernelSample some code here get start time some code here get stop time s
  • 为什么应该使用 CUDA 驱动程序 API 而不是 CUDA 运行时 API?

    为什么我应该使用 CUDA Driver API 在哪些情况下我不能使用 CUDA Runtime API 这比 Driver API 更方便 运行时 API 是比驱动程序 API 更高级别的抽象 并且通常更易于使用 性能差距应该很小 驱动
  • 将 2D 数组复制到已知可变宽度的 GPU

    我正在研究如何将每行可变宽度的 2D 数组复制到 GPU 中 int rows 1000 int cols int host matrix malloc sizeof int rows int d array int length Each
  • NVIDIA Fermi 中的 L2 缓存

    在查看NVIDIA Fermi架构中的性能计数器名称 cuda的doc文件夹中的Compute profiler txt文件 时 我注意到对于L2缓存未命中 有两个性能计数器 l2 subp0 read sector misses和l2 s
  • 如何让TensorFlow 100%使用GPU?

    我有一台配备 RTX 2060 GPU 的笔记本电脑 我使用 Keras 和 TF 2 在其上训练 LSTM 我还通过以下方式监控 GPU 使用情况nvidia smi我注意到 jupyter 笔记本和 TF 的使用率最多为 35 而 GP
  • Linux - 在 Nouveau 驱动程序上运行 Android 模拟器

    Linux Debian Sid x64 内核 4 14 Nvidia GPU 我无法在开放的 Nouveau 驱动程序上运行 Android 模拟器 我没有可以发布任何错误消息 只是分段错误 当我选择软件渲染时 它可以工作但无法使用 运行
  • 强制 Windows 视频驱动程序重新加载。有可能吗?

    某些驱动程序在启动时加载时使用注册表中写入的参数来配置自身 我可以修改这些值然后重新启动 但我想知道是否可以强制重新加载驱动程序 使更改在不重新启动的情况下生效 具体来说 我正在谈论视频驱动程序 nvidia 我在某处读到 通过 pINvo
  • 什么是 CUDA 上下文?

    谁能解释一下或者给我推荐一些关于什么是 CUDA 上下文的好资料 我搜索了 CUDA 开发者指南 但对它并不满意 任何解释或帮助都会很棒 cuda API 公开了有状态库的功能 两个连续的调用彼此相关 简而言之 上下文就是它的状态 The
  • 在 Python 中访问 GPU 硬件规格?

    我想使用 Numba 或类似的 Python CUDA 包访问各种 NVidia GPU 规范 可用设备内存 二级缓存大小 内存时钟频率等信息 来自阅读这个问题 https stackoverflow com questions 48654
  • CUDA 标量和 SIMD 视频指令的效率

    SIMD指令的吞吐量低于32位整数运算 如果是 SM2 0 仅标量指令版本 则低 2 倍 如果是 SM3 0 则低 6 倍 什么情况下适合使用它们 如果您的数据已经以 SIMD 视频指令本机处理的格式打包 则需要多个步骤对其进行解包 以便可
  • 如何使 TensorFlow 在具有 2.x 功能的 GPU 上运行?

    我已在 Linux Ubuntu 16 04 上成功安装了tensorflow GPU 并进行了一些小的更改 以使其能够与新的 Ubuntu LTS 版本配合使用 然而 我认为 谁知道为什么 我的 GPU 满足计算能力大于 3 5 的最低要
  • 使用内置显卡,没有NVIDIA显卡,可以使用CUDA和Caffe库吗?

    使用内置显卡 没有 NVIDIA 显卡 可以使用 CUDA 和 Caffe 库吗 我的操作系统是 ubuntu 15 CPU为 Intel i5 4670 3 40GHz 4核 内存为12 0GB 我想开始学习深度学习 CUDA 适用于 N
  • cudaMemcpyToSymbol 的问题

    我正在尝试复制到恒定内存 但我不能 因为我对 cudaMemcpyToSymbol 函数的用法有误解 我正在努力追随this http developer download nvidia com compute cuda 4 1 rel t
  • CUDA程序导致nvidia驱动程序崩溃

    当我超过大约 500 次试验和 256 个完整块时 我的 monte carlo pi 计算 CUDA 程序导致我的 nvidia 驱动程序崩溃 这似乎发生在 monteCarlo 内核函数中 任何帮助都会受到赞赏 include
  • NvCplGetThermalSettings 返回 false

    问题 您好 我正在尝试使用 Delphi 获取 nividia gtx 980 的 GPU 温度 我看过C 问题 他的解决方案是不使用nvcpl dll 我认为这不是正确的解决方案 因为 nivida 有完整的文档说明如何处理 API 见下
  • 在 Mac OS X 10.7.4 上使用 OpenCL 禁用 Nvidia 看门狗

    我有一个 OpenCL 程序 对于小问题运行良好 但是当运行较大的问题超过 Nvidia 硬件上运行内核的 8 10 秒时间限制时 虽然我没有将显示器连接到我正在计算的 GPU Nvidia GTX580 上 但一旦内核运行大约 8 10
  • cuda中内核的并行执行

    可以说我有三个全局数组 它们已使用 cudaMemcpy 复制到 GPU 中 但 c 中的这些全局数组尚未使用 cudaHostAlloc 分配 以便分配页面锁定的内存 而不是简单的全局分配 int a 100 b 100 c 100 cu
  • 无法初始化 NVML:几个小时后 Docker 中出现未知错误

    我遇到有趣而奇怪的问题 当我使用 GPU 启动 docker 容器时 它工作正常 并且我看到 docker 中的所有 GPU 然而 几个小时或几天后 我无法在docker中使用GPU 当我做nvidia smi在泊坞窗机器中 我看到这条消息

随机推荐