tensorflow-gpu1.14 + Win10 + CUDA10.0 + CUDNN7.5.0 + Python3.6 + VS2015安装

2023-05-16

最近学习深度学习,在配置环境中的过程中遇到很多问题,在这进行总结,希望对大家有帮助。

一、整个软件安装配置过程,很多博客写的很详细,附上链接;

  1. https://blog.csdn.net/qq_36026791/article/details/88793488
  2. https://blog.csdn.net/huanyingzhizai/article/details/89298964

二、安装完成后测试如下;

  1. 整个tensorflow测试过程
    (base) C:\Users\Wang>activate tensorflow--gpu//激活tensorflow环境
    
    (tensorflow--gpu) C:\Users\Wang>python
    Python 3.6.10 |Anaconda, Inc.| (default, Jan  7 2020, 15:18:16) [MSC v.1916 64 bit (AMD64)] on win32
    Type "help", "copyright", "credits" or "license" for more information.
    >>> from tensorflow.python.client import device-lib
      File "<stdin>", line 1
        from tensorflow.python.client import device-lib
                                                   ^
    SyntaxError: invalid syntax
    >>> from tensorflow.python.client import device_lib
    >>> print(device_lib.list_local_devices())
    2020-03-08 09:44:53.011007: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2
    2020-03-08 09:44:53.892132: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1433] Found device 0 with properties:
    name: GeForce MX150 major: 6 minor: 1 memoryClockRate(GHz): 1.0375
    pciBusID: 0000:01:00.0
    totalMemory: 2.00GiB freeMemory: 1.62GiB
    2020-03-08 09:44:53.914731: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1512] Adding visible gpu devices: 0
    2020-03-08 09:44:55.706053: I tensorflow/core/common_runtime/gpu/gpu_device.cc:984] Device interconnect StreamExecutor with strength 1 edge matrix:
    2020-03-08 09:44:55.722874: I tensorflow/core/common_runtime/gpu/gpu_device.cc:990]      0
    2020-03-08 09:44:55.731764: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1003] 0:   N
    2020-03-08 09:44:55.746369: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1115] Created TensorFlow device (/device:GPU:0 with 1364 MB memory) -> physical GPU (device: 0, name: GeForce MX150, pci bus id: 0000:01:00.0, compute capability: 6.1)
    [name: "/device:CPU:0"
    device_type: "CPU"       //抓到CPU
    memory_limit: 268435456
    locality {
    }
    incarnation: 17524159819158732381
    , name: "/device:GPU:0"
    device_type: "GPU"     //抓到GPU
    memory_limit: 1431112499
    locality {
      bus_id: 1
      links {
      }
    }
    incarnation: 5191225488240913321
    physical_device_desc: "device: 0, name: GeForce MX150, pci bus id: 0000:01:00.0, compute capability: 6.1"
    ]
    >>> import tensorflow as tf
    >>> gjm = tf.constant("Hello World ! I love TensorFlow ! ")
    >>> sess = tf.Session()
    2020-03-08 09:46:10.621388: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1512] Adding visible gpu devices: 0
    2020-03-08 09:46:11.108336: I tensorflow/core/common_runtime/gpu/gpu_device.cc:984] Device interconnect StreamExecutor with strength 1 edge matrix:
    2020-03-08 09:46:11.124001: I tensorflow/core/common_runtime/gpu/gpu_device.cc:990]      0
    2020-03-08 09:46:11.133490: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1003] 0:   N
    2020-03-08 09:46:11.264295: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1115] Created TensorFlow device (/job:localhost/replica:0/task:0/device:GPU:0 with 1364 MB memory) -> physical GPU (device: 0, name: GeForce MX150, pci bus id: 0000:01:00.0, compute capability: 6.1)
    >>> print (sess.run(gjm))
    2020-03-08 09:46:44.969417: E tensorflow/core/grappler/clusters/utils.cc:83] Failed to get device properties, error code: 30
    b'Hello World ! I love TensorFlow ! '    //输出
    >>> sess.close()
    >>>

     

  2. 查看cuda是否安装成功
  3. 其他过程参见链接博客

、遇到的几个问题;

  1. 首先是在安装过程中,python、tensorflow、Cuda版本的对应,这里我的版本如下python3.6(在安装Anaconda3时候自带为python3.7,这里在Anaconda Prompt里执行降版本,降为3.6即可)、tensorflow1.14rc0、Cuda 10.0。如果版本有问题,不兼容,后面测试会一直报错。
  2. Cuda 10.0安装完成后,一定要配置环境变量,具体如下:检查一下环境变量 我的电脑—> 属性—> 高级系统设置—> 环境变量—>系统变量      


    确认环境变量,CUDA_PATH和CUDA_PATH_V10已经存在

    依此添加下列三个路径到Path里
    C:\NVIDIA\CUDAv10.1\bin
    C:\NVIDIA\CUDAv10.1\include
    C:\NVIDIA\CUDAv10.1\lib\x64
    否则在Windows CMD命令窗口执行 nvcc -V 的时候,会发生错误,查不到Cuda版本信息,并且在后续测试Tensorflow的时候,会发生如下错误找不到指定模块

  3. 安装tensorflow,如果直接使用镜像,下载速度非常慢,而且容易出现错误。这里推荐使用清华镜像pip install -i https://pypi.tuna.tsinghua.edu.cn/simple tensorflow-gpu==1.14.0rc0
  4. 还有一点,在安装完tensorflow后,一般会同时安装numpy,但是自带的numpy版本过高,会出现以下错误

这里对numpy进行降版本操作就行。

就是先卸载原来的numpy     pip uninstall numpy 然后用清华镜像重新安装pip install -i https://pypi.tuna.tainghua.edu.cn/simple numpy==1.16.0

以上是我遇到的一些问题及坑的解决方法,欢迎大家参考,有问题留言交流。

 

 

 

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

tensorflow-gpu1.14 + Win10 + CUDA10.0 + CUDNN7.5.0 + Python3.6 + VS2015安装 的相关文章

随机推荐

  • STM32+RTC实现时钟无法设置时间以及掉电时间清零的问题

    最近在实现一个万年历的功能 xff0c 其中遇到了无法设置时间以及掉电时间清零的问题 h文件代码如下 xff1a span class token macro property span class token directive keyw
  • contains an incorrect path解决方法

    在移植UCOS 时出现如下报警 在确认头文件路径添加无误的情况下 xff0c 发现是因为文件名的UCOS 这个3不应用罗马数字 xff0c 用字母I代替 xff0c 改为UCOSIII并重新添加文件后错误消失
  • 理论 - 半波偶极子天线原理与计算

    概述 半波偶极子天线是一种结构简单的基本线天线 xff0c 也是一种经典的 迄今为止使用最广泛的天线之一 半波偶极子天线由两根直径和长度都相等的直导线组成 xff0c 每根导线的长度为1 4个工作波长 导线的直径远小于工作波长 xff0c
  • HFSS - 半波偶极子天线的设计与仿真

    一 理论计算 原理及理论计算部分可以看我上一篇文章理论 半波偶极子天线原理与计算 二 模型创建 1 模型概图如下 2 变量参数 变量意义变量名变量值 单位 mm 工作波长wavelength100天线总长度length0 48 x wave
  • STM32关于驱动段码屏显示

    本篇文章主要记录一下我在工作中用STM32单片机驱动段码屏显示内容 xff0c 不讲解具体的驱动原理 xff0c 只是单纯记录如何编写驱动屏幕图标显示的代码 xff0c 以便我日后查看 单片机 xff1a STM32L152RCT6A ID
  • HFSS - 同轴馈电矩形微带天线设计与仿真

    一 设计指标 中心频率 xff1a 2 45GHz介质板相对介电常数 xff1a 4 4介质板厚度 xff1a 1 6mm馈电方式 xff1a 50 Omega 同轴线馈电 二 同轴馈电微带天线设计 同轴线馈电的矩形微带天线结构如下图所示
  • HFSS - 圆极化矩形微带天线设计与仿真

    xff08 这个仿真了好久啊啊啊啊啊 xff0c 搞得这么晚 xff0c 哭辽 xff09 一 设计指标 设计一个右旋圆极化GPS天线 中心频率 xff1a 1 575GHz轴比 xff1a 中心频率处圆极化波小于2dB馈电方式 xff1a
  • HFSS - 倒F天线的设计与仿真

    一 倒F天线概述 倒F天线是单极子天线的一种变形结构 xff0c 其衍变发展的过程可以看成是从1 4波长单极子天线到倒L天线再到倒F天线的过程 xff0c 如下图所示 首先 xff0c 将单极子天线进行90 弯曲 xff0c 就能得到倒L天
  • 理论 - 平面倒F天线(PIFA)

    一 概述 PIFA Planar Inverted F shaped Antenna 天线即平面倒F形天线 xff0c 因为整个天线的形状像个倒写的英文字母F而得名 多年来 xff0c 多数手机天线都一直沿用这种传统的PIFA天线设计方案
  • HFSS - GSM 900 单频PIFA天线的设计与仿真

    一 设计指标 中心频率 xff1a 920MHz回波损耗带宽 xff1a 大于80MHz 各个参数变量如下表 变量意义变量名变量初始值 xff08 单位 xff1a mm xff09 天线高度H10辐射金属片长度L155辐射金属片宽度W13
  • HFSS - GSM 900 和 DCS 1800 双频PIFA天线的设计与仿真

    一 概述 PIFA天线可以采用在辐射金属片上开槽的技术来实现双频和多频段工作 采用如下图所示的U形开槽方案来实现PIFA天线在GSM 900和DCS 1800 两个频段上的工作 其中 xff0c 在GSM 900频段 xff0c 信号上行频
  • HFSS - 矩形口径喇叭天线的设计与仿真

    一 理论 喇叭天线是一种应用广 泛的微波天线 xff0c 其优点是结构简单 xff0c 频带宽 xff0c 功率容量大 xff0c 调整与使用方便 合理地选择喇叭尺寸 xff0c 可以获得良好的辐射特性 相当尖锐的主瓣 较小副瓣和较高的增益
  • 【record】1、FS-I6设置与对码

    官方说明文档 先贴一张官方的说明文档 xff1b 注意的点 xff1a 遥控器设置中 xff0c 按住CANCEL保存 xff1b 遥控器设置 xff08 1 xff09 恢复出厂设置 这里我对FS i6直接恢复出厂设置 xff0c 当然可
  • keil无法观察局部变量

    keil观察局部变量的时候 xff0c 发现总是显示not in scope xff0c 是优化级别过高 xff0c 降低优化级别即可
  • rplidar连接计算机显示process has died.....解决方法

    检测是否打开roscore可能是串口未赋予权限 xff0c 解决方法 xff1a sudo chmod 777 dev ttyUSB0
  • ST-LINK/V2:cannot reset target shutting down debug session

    使用 ST LINK V2 为 STM32 下载程序时 xff0c 总是不成功 xff0c 并弹出如下对话框 xff1a 解决方法 xff1a 打开 MDK 的安装目录下的 STLink xff0c 如下是我的路径 xff1a D mdk5
  • C++声明与定义以及初始化,头文件的书写规范

    初始化 初始化 xff1a 当一个对象被创建的同时获得了特定的值 1 初始化不是赋值 xff0c 初始化的含义是创建变量时赋予其一个初始值 xff0c 而赋值的含义是把对象的当前值擦除 xff0c 而以一个新值代替 xff1b 2 默认初始
  • 【C++】Cmake使用教程(看这一篇就够了)

    文章目录 引言一 环境搭建二 简单入门2 1 项目结构2 2 示例源码2 3 运行查看 三 编译多个源文件3 1 在同一个目录下有多个源文件3 1 1 简单版本3 1 1 1 项目结构3 1 1 2 示例代码3 1 1 3 运行查看 3 1
  • 编码

    UTF 8 UTF 8以字节为单位对Unicode进行编码 从Unicode到UTF 8的编码方式如下 xff1a Unicode编码 十六进制 UTF 8 字节流 二进制 000000 00007F0xxxxxxx000080 0007F
  • tensorflow-gpu1.14 + Win10 + CUDA10.0 + CUDNN7.5.0 + Python3.6 + VS2015安装

    最近学习深度学习 xff0c 在配置环境中的过程中遇到很多问题 xff0c 在这进行总结 xff0c 希望对大家有帮助 一 整个软件安装配置过程 xff0c 很多博客写的很详细 xff0c 附上链接 xff1b https blog csd