Tensorflow学习笔记(1)——Tensorflow-CPU版安装躺坑实录

2023-05-16

     从今天开始就要出品自己的Tensorflow系列啦!由于是第一篇关于Python的博文,所以先把接触Python以来的感想和心得都放了进来,想看Tensorflow的博友请直接跳到标题三。

 

一、Python,Anaconda,Pycharm到底是什么?

       这个看似很Low的问题在刚刚学Python的时候困扰了我很久。我们要学的是Python,直接去Python官网安装一个Python编译器不就可以了吗?为什么还要大费周折安装Anaconda和Pycharm?

        经过入门的折腾,自己总算有了一个初步的答案:(个人观点,若有错误欢迎大家批评指正!)

       1. Python+各种包=Anaconda:若只安装官网的Python,的确可以完成.py文件的编译。但是在开发中我们会用到各种各样的包。一方面,Anaconda自带了很多经常用到的包,这就为我们后期的直接使用提供了很大的方便;另一方面,我们额外pip的包也将会安装在Anaconda目录下面,例如下图,我们import tensorflow模块,会自动显示这个包的路径,的确是在Anaconda目录下的:

      同时,我们打开Anaconda的安装目录,会发现:目录下有python.exe,这就是编译器

     所以:Anaconda的核心依旧是Python.exe编译器,它的存在会使得Python的包更容易管理。  

     2.Pycharm:我们写好了一个Python程序,只要有Python.exe和必需的包,就可以运行了。但是程序的编写最好要有一个环境,就像VC++ 6.0这样的界面。如果没有界面,仅仅在txt中编辑,那我们的界面会像左图这样,有了界面就像右图一样了。没错,一个IDE环境可以为编程者提供高亮提醒、关键词提示、Debug等功能。Pycharm就是这样一个环境,本身不可以编译py文件,但是可以调用Anaconda的exe完成编译。

二、为什么下载Python相关软件时总会有Linux版本的?很多DL、ML的教程也是在Linux环境下进行教学的?Windows用户才是最普遍的,为什么依然有很多人放弃自己熟悉的Windows而转战Linux环境呢?

      我之前也很迷惑这个问题,直到看了B站的一个教学视频才明白(视频地址文末放送)

      核心原因:

     1.Windows风靡是因为具有友好的操作界面,我们点点鼠标就可以对手边的电脑进行一系列的操作。但是在真正的服务器维护中(大到谷歌、百度、QQ这种大公司,小到学校机房),99%遇到的情况是在一个地方登陆远在千里之外的服务器进行维护。这些维护是没有界面操作的,只能通过终端命令来完成。

      2.Linux的稳定性、实时性比Windows好的多。你的Windows肯定会随着文件的增多而变得卡顿,但是Linux却可以稳定运行

      3.Linux全开源,商家几乎全部选用Linux来完成服务器维护。

      个人建议:先在自己熟悉的Windows环境中学会环境搭建与程序编写。当完成基础学习之后,再进军Linux系统,更接近专业的开发。

三、正文:Tensorflow安装躺坑实录

     这个破东西我整整搞了两天......

      要明确的是,Tensorflow一共有两个版本,一个是CPU版本,一个是GPU版本,那么装哪个版本的呢?

  一定先要搞懂自己电脑的显卡是什么版本的,一般来说,电脑的显卡基本都是由两大厂商所承包的:NVIDIA(绿色Logo)和AMD(红色Logo),如果你是NVIDIA的,那么恭喜你,你的电脑是可以进行深度学习GPU加速的。如果你是AMD的,很遗憾告诉你,你的电脑只能用CPU进行运算。一般来说,GPU加速后的神经网络训练速度要比CPU的快十几倍。但是AMD的也不用担心,因为入门时跑的神经网络都是轻量级的,时间差异不会显现出来的。由于我的电脑是AMD显卡,所以只能安装CPU版本的了。

      GPU版本的安装过程详见此博客:http://www.mclover.cn/blog/index.php/archives/179.html

      好,接下来是CPU版本的安装过程:

      1.安装Visual Studio 2015:如果不安装,IDE将会无法import tensorflow

      2.Win+R打开运行,输入cmd进入终端,输入:   

pip install tensorflow

      然后就是漫长的等待,如果命令窗口重新显示了C:User:>>的话,就表示pip完毕,成功界面如下:

     

      3.打开Pycharm,输入:

import tensorflow as tf
print("123")

      首次导入tf包可能需要较长时间,编译结束后如果没有报错,则安装完毕。

      接下来是我的躺坑过程,都是用时间换来的教训啊.......

   坑1:一定要先确定好自己的电脑显卡是NIVIDA还是AMD的,AMD的不能够安装GPU版本的Tensorflow(我就是先安装了CUDA、CUDNN、Tensorflow-gpu)之后发现自己显卡居然TDM是AMD的,

       坑2:一定要先给电脑安装好VS2015,这个软件安装的时候非常缓慢(我装了将近2个小时),建议在睡觉之前进行安装。如果不安装VS2015,import 时会出现一大堆报错,类似于:

     总结:每次接触一门新的语言或芯片,都要首先花很长的时间在环境的搭建上面,比如51、ARM的Keil,DSP的CCS。安装的过程中也是躺了很多很多的坑。当遇到问题时,一定要多去搜索,积极寻找解决途径。好的开始是成功的一半!

 

文末彩蛋:

1.Python入门教程:https://www.bilibili.com/video/av14184325

2.Tensorflow笔记(北京大学):https://www.bilibili.com/video/av22530538

3.英文原版《Pattern Recognition and Machine Learning》:

  (上册):https://download.csdn.net/download/qq_36342854/10594775

  (下册):https://download.csdn.net/download/qq_36342854/10596375

 

     这是系列博文的第一篇,写的比较啰嗦,不对的地方还请大家批评指正!后面会继续更新Tf的基础知识和实际应用,希望大家持续关注,感谢阅读!

(完)

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Tensorflow学习笔记(1)——Tensorflow-CPU版安装躺坑实录 的相关文章

  • MOT指标笔记《CLEAR Metrics-MOTA&MOTP》2008年·卡尔斯鲁厄大学

    搞了这么久的MOT xff0c 到头来发现最基本的MOTA和MOTP还没有搞懂 xff0c 实在有点说不过去 今天花了一上午的时间阅读2008年卡尔斯鲁厄大学的 Evaluating Multiple Object Tracking Per
  • 概率图模型-知识结构

    两周多 xff0c 终于把概率图模型这一章看完了 xff0c 由于只是看了知识框架 xff0c 很多具体细节都还不理解 内容真的是好多啊 xff0c 而且都是理论 xff0c 没有实践 希望日后用到的时候能回忆的起来这些内容吧
  • 软件工程概论-课后作业1

    需要网站系统开发需要掌握的技术 1 网页设计 xff1a Photoshop Flash max Dreamweaver 2 网站程序 xff1a Dreamweaver Visual Studio NET 会asp asp net php
  • 《强化学习》——CH2 多臂赌博机 笔记

  • 相机几何学——投影矩阵P的构成(实验报告版)

    最近在可视化WildTrack数据集 xff0c 由于要对棋盘格点进行映射和绘制 xff0c 涉及到了P矩阵的计算 现在对P的来源进行了系统的整理 xff0c 以备后忘 在最后对场地端点映射产生的问题进行了讨论 xff08 事情开始变得有意
  • 约束优化方法_2_——Frank-Wolfe方法

    Frank Wolfe方法属于约束优化中可行方向法的一种 上一篇博文对同类型的Zoutendijk可行性方法进行了介绍 xff0c 这一部分着重关注Frank Wolfe方法 Frank Wolfe方法的基本思想是 xff1a 每次迭代中使
  • 二次规划_1_——Lagrange方法

    二次规化是非线性规化中的一种特殊情形 xff0c 其目标函数是二次实函数 xff0c 约束是线性的 考试中会考到四种方法 xff0c 分别为 xff1a Lagrange方法 起作用集方法 直接消去法和广义消去法 前两种在教材上有详细描述
  • 二次规划_2_——起作用集方法

    这个算法很反人类 xff0c 迭代过程相当复杂 xff0c 最优化老师说 xff1a 明确地告诉你要考的 起作用集方法适用于消元法和Lagrange方法无法处理的不等式约束二次规化问题 其主要思想是 xff1a 以已知点为可行点 xff0c
  • 约束非线性优化:几何意义&对偶形式

    借助老师的PPT对约束非线性优化问题的几何意义 和对偶形式 进行阐述 一 几何意义 xff08 1 xff09 等式约束 考虑只有等式约束h x 的非线性优化问题 xff0c 形式为 xff1a 可视化结果如下图所示 xff0c 红色曲线为
  • 转载篇:优秀博文汇总

    1 Pytorch中堆网络语法 xff1a nn moduleList 和Sequential由来 用法和实例 写网络模型 https blog csdn net e01528 article details 84397174 2 CNN中
  • 批量归一化:Batch Normalization层 原理+Pytorch实现

    一 BN层概念明晰 BN层存在的意义 xff1a 让较深的神经网络的训练变得更加容易 BN层的工作内容 xff1a 利用小批量数据样本的均值和标准差 xff0c 不断调整神经网络中间输出 xff0c 使整个神经网络在各层的中间输出的数值更加
  • 模型量化——基础知识 & LSQ论文阅读

    感谢陈老师给的机会 xff0c 有幸能够参加2020年的DAC比赛 我在其中负责目标检测器的调试和量化 自己第一次接触量化这个任务 xff0c 很多东西都是一点一点学 一 量化基础 对于一个全精度的值 v v v xff0c 若量化步长为
  • python3安装tensorflow遇到的问题

    1 使用命令 xff1a sudo pip3 install upgrade https storage googleapis com tensorflow linux cpu tensorflow 1 1 0rc2 cp35 cp35m
  • argparse模块使用说明

    深度学习的工程中 xff0c py文件中的main函数一开始总会有大量的参数传入 xff0c 而通常使用的方法就是使用argparse通过命令行传入 xff0c 这篇博文旨在记录argparse的常用方法 一 语句简介 1 载入argpar
  • Tensorboard在网络训练中的Logger使用方法

    做为神经网络训练中最常用的可视化工具 xff0c Tensorboard经常在Pytorch和Tensorflow框架中做为可视化工具 但是其使用的确是有点繁琐 xff0c 所以开设了一个这样的专题 xff0c 用于总结见过的工程里面的数据
  • Pytorch训练流程

    调试了很久YOLO的标准Pytorch实现 xff0c 将Train代码进行了重新整理 xff0c 抽出了标准的Pytorch训练框架 现在整理下来 xff0c 以备后用 整理后的代码分为三个大部分 xff0c 每个大部分分为三个小部分 x
  • 初识Vulkan渲染管线

    目前参考 Vulkan规范 和 Vulkan开发实战详解 对渲染管线有了一个初步的认识 现结合中英文的渲染管线图进行笔记整理 中英文的渲染管线图分别如下所示 xff1a 绘制命令送入设备队列执行后 xff0c Vulkan将原始的物体顶点坐
  • Vulkan着色器的GLSL创建、编译、加载、创建流程

    Vulkan没有指定官方的着色器编程语言 xff0c 而是采用SPIR V二进制中间格式进行表示 开发人员一般需要基于某种着色器编程语言开发着色器 xff0c 之后再编译为SPIR V格式 可以选用GLSL着色器编程语言进行开发 大型游戏场
  • 神经网络运算量&参数量估计——FLOPS和FLOPs辨析

    一 概念明晰 首先要明确 运算量 和 参数量 两个概念 xff1a 参数量 xff1a 这个比较好理解 xff0c 例如卷积层中的卷积核c i k k n o xff0c 其参数量就是相乘的结果 而且 xff0c 无论输入图像的尺寸怎么变
  • 机器学习基础——彻底搞懂Precision\Recall\F1\P-R\ROC

    一直以为自己理解这些概念 xff0c 但是其实只是听说过而已 这些概念的释义来自于周志华教授的 机器学习 xff0c 都属于对机器学习算法的性能度量 一 错误率与精度 还是使用书上的定义写的明确 xff0c test set中所有样本预测对

随机推荐

  • [交叉熵损失函数的由来:KL散度] & [softmax+交叉熵损失函数求梯度 推导]

  • SSH基础操作

    这里写自定义目录标题 SSH基础操作SSH免密登录客户端 快捷登录服务器端 sshd配置配置完成后重启服务器端sshd服务 SSH基础操作 span class token function ssh span span class toke
  • Linux下screen的使用

    关掉xshell之后网站也随着关闭 xff0c 我们可以使用screen命令 xff0c 来让保证退出ssh之后程序继续在后台跑 利用SSH远程连接服务器 xff0c 运行程序需要保证在此期间窗口不能关闭并且连接不能断开 xff0c 否则当
  • SAI 串行音频接口学习

    SAI 简介 串行音频接口 xff08 SAI xff09 xff0c SAI具有灵活性高 配置多样的特点 SAI 通过两个完全独立的音频子模块来实现这种灵活性与可配置型 xff0c 每个音频子模块与多达4个引脚 xff08 SD SCK
  • Tensorflow笔记1:Graph

    参考内容都出自于官方API教程tf Graph 一 Graph类调用 这里使用的是1 15版本 xff0c TF官方为了能够在2 0 43 版本中保持兼容 xff0c 因此调用时使用了tf compat v1 Graph 若安装的就是1 1
  • Tensorflow笔记2:Session

    参考内容都出自于官方API教程tf Session 一 Session类基本使用方法 这里使用的是1 15版本 xff0c TF官方为了能够在2 0 43 版本中保持兼容 xff0c 因此调用时使用了tf compat v1 Session
  • Tensorflow笔记3:Variable

    调用Variable类即可向Graph中添加变量 Variable在创建之后需要给定初始值 xff0c 可以是任意type shape的Tensor 一旦使用初始值完成了初始化 xff0c type和shape都固定 xff0c 除非使用a
  • TensorFlow-Slim API 官方教程

    https blog csdn net u014061630 article details 80632736 TF Slim 模块是 TensorFlow 中最好用的 API 之一 尤其是里面引入的 arg scope model var
  • Tensorflow笔记4:Saver

    Saver类位于tf train中 xff0c 属于训练过程中要用到的方法 xff0c 主要作用就是保存和加载save amp restore ckpt 最简单的保存应用举例 xff1a saver span class token pun
  • Tensorflow笔记4:学习率衰减策略tf.train.cosine_decay_restarts

    TF在learning rate decay py中提供了几种非常骚气的学习率下降方法 xff0c 今天就来玩一玩 只需要简单的参数设定 xff0c 就能够产生神奇的lr衰减效果 首先简介lr的一般使用方法 xff1a lr span cl
  • ffmpeg使用笔记

    视频压缩 ffmpeg i lt input gt vcodec libx264 crf 25 lt output gt 分辨率调整 ffmpeg i 123 mp4 s 960x540 1 mp4 视频截取 截取 xff08 t1 43
  • Pytorch 入门

    1 加载模型 seg model 61 torchvision models detection maskrcnn resnet50 fpn pretrained 61 True seg model 61 seg model cuda 1
  • 小白之通俗易懂的贝叶斯定理

    原文链接 xff1a https zhuanlan zhihu com p 37768413 概率论与数理统计 xff0c 在生活中实在是太有用了 xff0c 但由于大学课堂理解不够深入 xff0c 不能很好地将这些理论具象化并应用到实际生
  • tf.variable_scope中的reuse

    一 两种scope xff1a variable与name tf variable scope 是对变量进行命名管理 xff0c 而tf name scope 是对算子 op 进行命名管理 xff0c 二者相互不影响 见下例 xff1a i
  • HTML+CSS 简易搜索框

    搜索框是页面中很常见的一种 xff0c 下面分享一段简单搜索框案例 xff0c 直接上代码 HTML部分 lt DOCTYPE html gt lt html gt lt head gt lt meta charset 61 34 UTF
  • frp内网穿刺/反向代理教程

    文章目录 前言一 明确基本概念二 frp下载与使用1 云服务器做为Server端2 GPU服务器做为Client端3 远程访问 三 云服务器防火墙端口开启 前言 frp 是一个高性能的反向代理应用 xff0c 可以帮助开发者轻松地进行内网穿
  • Keras模型基本流程

    文章目录 前言一 Keras流程二 Keras中的模型定义1 基于Sequential 类2 基于函数式API 前言 目前打算看tensorflow probability模块 xff0c 但是发现整个都是适配Keras的 xff0c 很多
  • pytorch自动混合精度训练

    from torch cuda amp import autocast GradScaler Init Step 1 Create Model model device start epoch 61 create model opt if
  • Linux系统查看CPU个数&超线程&线程数

    小命令 xff1a Linux查看CPU详细信息 简书 jianshu com Intel CPU产品规范 xff1a 英特尔 产品 xff1a 处理器 xff0c 英特尔 NUC 迷你电脑 xff0c 内存和存储 xff0c 芯片组 in
  • Tensorflow学习笔记(1)——Tensorflow-CPU版安装躺坑实录

    从今天开始就要出品自己的Tensorflow系列啦 xff01 由于是第一篇关于Python的博文 xff0c 所以先把接触Python以来的感想和心得都放了进来 xff0c 想看Tensorflow的博友请直接跳到标题三 一 Python