NVIDIA Jetson AGX Xavier主机刷机与SSD安装

2023-05-16

任务逻辑

当有个新的AGX主机到手上后,主机是启动的是eMMC,大约30G存储
这个安装了系统后到后面随便弄一下就不够存储了,所以我是想要在主机上安装一个SSD,然后将系统直接放到SSD上,这种操作就需要刷机完成后进行开机引导,即为rootOnNVMe

个人的理解

当完成了rootOnNVMe的流程后,可以从SSD启动后,相对应的rootfs指向已经写好到了eMMC中,那么到后面就可以直接换SSD,可以使用更换SSD的方式来更换系统内部的配置与工程文件。
如果你恰巧财力雄厚,有多个AGX的主机,便可以直接备份SSD,然后更换烧录好的SSD,从而让多台主机都是相同配置的系统设置,节省了很多时间。

进行刷机流程

先将新的主机进行刷机

首先运行ubuntu的虚拟机或者双系统
然后去到官方的下载网址将刷机程序NVIDIA SDK Manager安装到ubuntu
也就是图片红色的区域
在这里插入图片描述

由于我的虚拟机网络卡的很,所以我从Win10下载后截切达虚拟机中
在这里插入图片描述


进行安装,可能部分安装包的名字不一样,更改就行

sudo apt install ./sdkmanager_1.8.0-10363_amd64.deb

在这里插入图片描述

完成后运行

sdkmanager

在这里插入图片描述
在我运行后有一个警告,说是屏幕的分辨率的问题,不用理会直接yes

然后要进行登录,我是直接使用微信登录
在这里插入图片描述

然后有个隐私声明,看个人情况选择
在这里插入图片描述

完成后就等他的进度条走完,然后跳出了选择设备信息
在这里插入图片描述

然后我使用了一个数据线连接了主机与电脑的虚拟机内

在这里插入图片描述
这里要求的是要用有指示灯的Typc-C接口,并且使用购买时自带的数据线

在程序中能够看到了已经识别到了主机
在这里插入图片描述

然后我这里选择了4.5.1的版本
在这里插入图片描述

完成后点击continue,下一步
然后可以看到它即将安装的各个组件
在这里插入图片描述

安装的位置我这里直接默认路径
然后创建文件目录
在这里插入图片描述

然后就是密码
在这里插入图片描述


出了个验证信息,稍微等等


然后开始下载
在这里插入图片描述

等待一会后,程序会跳出一个新的窗口,这里选择【Manual Setup】也就是手动模式
在这里插入图片描述


根据程序提示的步骤如下操作:
使用Type-C转USB数据线将 Xavier 与宿主电脑连接
将 Xavier 插上电源,并处于关机状态
点击Flash,准备刷机
按下并保持 Xavier 上的【Recovery】键(中间的键)
按下并保持【Power】键(最左边的键),持续1s,然后同时松开这两个键,进入刷机模式。


当让主机变成刷机模式后,可以使用命令查看,如果看到 NVidia Corp 则说明 xavier 与host端,也就是两者连接成功

lsusb

在这里插入图片描述


大概会在进度条一半的时候,AGX会自己启动,这时候就可以正常的进行系统的初始化,然后就设置主机,用户名密码,区域与语言等等
到这里我们要给AGX重新设置并更新源

首先备份sources.list文件

sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak

打开sources.list文件

sudo gedit /etc/apt/sources.list

删除原内容,添加下列内容

#中科大源
deb http://mirrors.ustc.edu.cn/ubuntu-ports/ bionic-updates main restricted universe multiverse 
deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ bionic-updates main restricted universe multiverse 
deb http://mirrors.ustc.edu.cn/ubuntu-ports/ bionic-security main restricted universe multiverse 
deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ bionic-security main restricted universe multiverse 
deb http://mirrors.ustc.edu.cn/ubuntu-ports/ bionic-backports main restricted universe multiverse 
deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ bionic-backports main restricted universe multiverse 
deb http://mirrors.ustc.edu.cn/ubuntu-ports/ bionic main universe restricted 
deb-src http://mirrors.ustc.edu.cn/ubuntu-ports/ bionic main universe restricted


保存sources.list文件后需要更新apt-get

sudo apt-get update


当烧录完镜像后,
输入刚才在 xavier 上设置的用户名和密码
确保主机和 xavier 连接在同一个局域网中,最好的方法是使用网线将两个设别连接到同一个路由器中
在这里插入图片描述

然后就是漫长的等待,最终完成
在这里插入图片描述

SSD的安装

到这里就可以重新启动AGX,AGX内部也就是一个完整的系统了
但是现在整个主机的存储是eMMC,大约30G,完全不够用,所以安装SSD

首先将所有的连接到AGX的线束断开

将整个主句背面朝上,然后将图片中这四个螺丝拆下
在这里插入图片描述


然后根据图片的箭头一边左右晃,一边拔出主板
在这里插入图片描述

拔出主板的时候要注意,有一个应该是给到散热风扇的供电线,不要给拔断了
在这里插入图片描述

主板翻过来后就可以看到空着的M.2 NVMe接口
然后将新买的SSD安装上去,这里我选择的是128G的SSD
在这里插入图片描述

完成后根据安装的位置重新盖回去
在这里插入图片描述

完成后就可以启动了,但是启动的是在eMMC上
所以需要进行rootOnNVMe的流程,以将 rootfs 指向安装在 /dev/nvme0(M.2 Key M 插槽)上的 SSD
rootOnNVMe
跟着流程走就行


然后要注意啊,原本的eMMC,就不用管它了,不然可能会发生以下的情况
对于Xavier ,仍然需要安装SD卡才能启动。Jetson Xavier 的默认配置不允许从 NVMe 直接引导。这个有在rootOnNVMe的流程中提到
在这里插入图片描述

当rootOnNVMe的流程走完后,重新启动应该就可以从SSD使用了

那么【NVIDIA Jetson AGX Xavier主机刷机与SSD安装】大致流程就是这样

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

NVIDIA Jetson AGX Xavier主机刷机与SSD安装 的相关文章

  • Fedora 19 使用 rpmfussion 的 NVIDIA 驱动程序:libGL 错误:无法加载驱动程序:swrast

    在我的 Fedora 19 机器上运行使用 Qt 4 7 的应用程序时 我从应用程序中收到以下错误 libGL screen 0 does not appear to be DRI2 capable libGL OpenDriver try
  • 全局内存写入在 CUDA 中是否被视为原子?

    全局内存写入在 CUDA 中是否被视为原子操作 考虑以下 CUDA 内核代码 int idx blockIdx x blockDim x threadIdx x int gidx idx 1000 globalStorage gidx so
  • 为什么应该使用 CUDA 驱动程序 API 而不是 CUDA 运行时 API?

    为什么我应该使用 CUDA Driver API 在哪些情况下我不能使用 CUDA Runtime API 这比 Driver API 更方便 运行时 API 是比驱动程序 API 更高级别的抽象 并且通常更易于使用 性能差距应该很小 驱动
  • 如何让TensorFlow 100%使用GPU?

    我有一台配备 RTX 2060 GPU 的笔记本电脑 我使用 Keras 和 TF 2 在其上训练 LSTM 我还通过以下方式监控 GPU 使用情况nvidia smi我注意到 jupyter 笔记本和 TF 的使用率最多为 35 而 GP
  • 如何强制我想要的任何显示分辨率/时间?

    我无法找到一种方法来在我的 C 程序中强制执行我想要的任何显示分辨率 计时 我运行的是带有 GeForce 210 显卡的 Windows 7 我当前实现这些自定义分辨率的方法是使用驱动程序 GUI 手动添加自定义分辨率 然后使用 Wind
  • 强制 Windows 视频驱动程序重新加载。有可能吗?

    某些驱动程序在启动时加载时使用注册表中写入的参数来配置自身 我可以修改这些值然后重新启动 但我想知道是否可以强制重新加载驱动程序 使更改在不重新启动的情况下生效 具体来说 我正在谈论视频驱动程序 nvidia 我在某处读到 通过 pINvo
  • CUDA 中的块间同步

    我为这个问题搜索了一个月 我无法同步 CUDA 中的块 我读过很多关于atomicAdd 合作组等的文章 我决定使用一个全局数组 这样一个块就可以在全局数组的一个元素上写入 写入之后 块的线程将等待 即陷入 while 循环 直到所有块都写
  • cudamemcpyasync 和流行为理解

    我有下面所示的简单代码 它什么也不做 只是使用流将一些数据从主机复制到设备 但在运行 nvprof 后我很困惑 因为 cudamemcpyasync 确实是异步的并且对流的理解 include
  • 在 Python 中访问 GPU 硬件规格?

    我想使用 Numba 或类似的 Python CUDA 包访问各种 NVidia GPU 规范 可用设备内存 二级缓存大小 内存时钟频率等信息 来自阅读这个问题 https stackoverflow com questions 48654
  • NVIDIA Jetson环境VSCode安装记录,前期失败问题在于英伟达使用的是arm64架构

    1 安装失败及原因探索 1 1 报错 Unable to install code The following packages have unmet dependencies 搜索一个链接就开始上手 Ubuntu 22 04安装Visua
  • Ubuntu 16.04 上适用于 TensorFlow 的 NVIDIA cuDNN 版本类型 [已关闭]

    Closed 这个问题不符合堆栈溢出指南 help closed questions 目前不接受答案 根据TensorFlow 1 5 安装说明 https www tensorflow org install install linux对
  • 在 Optimus 笔记本电脑中以编程方式强制使用 NVIDIA GPU

    我正在编写 DirectX 游戏 当我在 Optimus 笔记本电脑上运行它时 会使用 Intel GPU 导致性能非常糟糕 如果我使用上下文菜单或将可执行文件重命名为 bf3 exe 或其他一些著名的游戏可执行文件名称来强制使用 NVID
  • CUDA 标量和 SIMD 视频指令的效率

    SIMD指令的吞吐量低于32位整数运算 如果是 SM2 0 仅标量指令版本 则低 2 倍 如果是 SM3 0 则低 6 倍 什么情况下适合使用它们 如果您的数据已经以 SIMD 视频指令本机处理的格式打包 则需要多个步骤对其进行解包 以便可
  • 如何使 TensorFlow 在具有 2.x 功能的 GPU 上运行?

    我已在 Linux Ubuntu 16 04 上成功安装了tensorflow GPU 并进行了一些小的更改 以使其能够与新的 Ubuntu LTS 版本配合使用 然而 我认为 谁知道为什么 我的 GPU 满足计算能力大于 3 5 的最低要
  • 是否可以在设备函数中调用cufft库调用?

    我在主机代码中使用 cuFFT 库调用 它们工作正常 但我想从内核调用 cuFFT 库 早期版本的 CUDA 没有这种支持 但是有了动态并行性 这可能吗 如果有任何关于如何实现这一目标的示例 那就太好了 尽管在 Kepler cc 3 5
  • Visual Studio - 过滤掉 nvcc 警告

    我正在编写 CUDA 程序 但收到令人讨厌的警告 Warning Cannot tell what pointer points to assuming global memory space 这是来自 nvcc 我无法禁用它 有没有办法过
  • 使 CUDA 内存不足

    我正在尝试训练网络 但我明白了 我将批量大小设置为 300 并收到此错误 但即使我将其减少到 100 我仍然收到此错误 更令人沮丧的是 在 1200 个图像上运行 10 epoch 大约需要 40 分钟 有什么建议吗 错了 我怎样才能加快这
  • 无法在 CUDA 中执行设备内核

    我正在尝试在全局内核中调用设备内核 我的全局内核是矩阵乘法 我的设备内核正在查找乘积矩阵每列中的最大值和索引 以下是代码 device void MaxFunction float Pd float max int x threadIdx
  • cuda中内核的并行执行

    可以说我有三个全局数组 它们已使用 cudaMemcpy 复制到 GPU 中 但 c 中的这些全局数组尚未使用 cudaHostAlloc 分配 以便分配页面锁定的内存 而不是简单的全局分配 int a 100 b 100 c 100 cu
  • 如何为 CUDA 内核选择网格和块尺寸?

    这是一个关于如何确定CUDA网格 块和线程大小的问题 这是对已发布问题的附加问题here https stackoverflow com a 5643838 1292251 通过此链接 talonmies 的答案包含一个代码片段 见下文 我

随机推荐

  • TensorFlow:Object_Detection_API在Windows10上的配置

    安装 假设已配置完tensorflow xff0c 并安装好Anaconda3 4 2 0 xff08 此版本为python3 5 xff09 从github下载models tensorflow models Protobuf 编译 pr
  • TensorFlow Object Detection API 在Windows10和Ubuntu上的配置

    前言 好久没用博客了 xff0c 因为服务器原因重装了好几次 xff0c tensorflow也一直跟着重装 xff0c 这篇博文相比上一篇会更完善点 xff0c 用的版本也会新一些 主要记录在win10和ubuntu上配置Tensorfl
  • 那一年读过的技术经典书

    转载请注明 xff1a http blog csdn net xinzhangyanxiang article details 10199757 大学刚毕业 xff0c 总结起来读过的书并不算多 xff0c 而且主要集中在大四的时期读的 x
  • Bert: 双向预训练+微调

    最近要开始使用Transformer去做一些事情了 xff0c 特地把与此相关的知识点记录下来 xff0c 构建相关的 完整的知识结构体系 以下是要写的文章 xff0c 文章大部分都发布在公众号 雨石记 上 xff0c 欢迎关注公众号获取最
  • Federated Learning: 问题与优化算法

    工作原因 xff0c 听到和使用Federated Learning框架很多 xff0c 但是对框架内的算法和架构了解不够细致 xff0c 特读论文以记之 这个系列计划要写的文章包括 xff1a Federated Learning 问题与
  • DIN: 阿里点击率预估之深度兴趣网络

    广告推荐算法系列文章 xff1a 莫比乌斯 百度的下一代query ad匹配算法百度凤巢分布式层次GPU参数服务器架构DIN 阿里点击率预估之深度兴趣网络DIEN 阿里点击率预估之深度兴趣进化网络 本文的知识点来源于参考文献 1 xff0c
  • DIEN: 阿里点击率预估之深度兴趣进化网络

    广告推荐算法系列文章 xff1a 莫比乌斯 百度的下一代query ad匹配算法百度凤巢分布式层次GPU参数服务器架构DIN 阿里点击率预估之深度兴趣网络基于Delaunay图的快速最大内积搜索算法DIEN 阿里点击率预估之深度兴趣进化网络
  • 概率矩阵分解模型 PMF

    本文是论文 一种结合推荐对象间关联关系的社会化推荐算法 的笔记 xff08 上 xff09 因为对其中的概率矩阵分解 Probabilistic Matrix Factorization PMF 不够了解 xff0c 因而我先去脑补了PMF
  • 卷积神经网络

    卷积神经网络 转载请注明 xff1a http blog csdn net stdcoutzyx article details 41596663 自今年七月份以来 xff0c 一直在实验室负责卷积神经网络 xff08 Convolutio
  • linux系统非线性结构的遍历算法

    介绍 非线性结构的二叉搜索树 xff08 BST xff09 可以进行各种不同方式的遍历 xff0c 所谓遍历 xff0c 就是环游树中的每一个节点 xff0c 然后根据我们的需要对这些节点做某种处理 树的遍历方式主要有以下几种 xff08
  • DeepID人脸识别算法之三代

    DeepID人脸识别算法之三代 转载请注明 xff1a http blog csdn net stdcoutzyx article details 42091205 DeepID xff0c 目前最强人脸识别算法 xff0c 已经三代 如今
  • 理解dropout

    理解dropout 开篇明义 xff0c dropout是指在深度学习网络的训练过程中 xff0c 对于神经网络单元 xff0c 按照一定的概率将其暂时从网络中丢弃 注意是暂时 xff0c 对于随机梯度下降来说 xff0c 由于是随机丢弃
  • 深度卷积对抗生成网络(DCGAN)

    本文是参考文献 1 的论文笔记 卷积神经网络在有监督学习中的各项任务上都有很好的表现 xff0c 但在无监督学习领域 xff0c 却比较少 本文介绍的算法将有监督学习中的CNN和无监督学习中的GAN结合到了一起 在非CNN条件下 xff0c
  • 看图说话——CNN和LSTM的联合应用

    看图说话是深度学习波及的领域之一 其基本思想是利用卷积神经网络来做图像的特征提取 xff0c 利用LSTM来生成描述 但这算是深度学习中热门的两大模型为数不多的联合应用了 本文是参考文献 1 的笔记 xff0c 论文是比较早的论文 xff0
  • 机器学习经典书籍小结

    机器学习经典书籍小结 转载本博客请注明链接 xff1a http blog csdn net xinzhangyanxiang article details 9069045 博客第一篇文章 1 是转载的 xff0c 也算是开始写博客不经意
  • Microsoft Media foundation概述(附实例)

    Microsoft Media Foundation是微软新一代多媒体开发平台 xff0c 用以取代原来的Directshow xff0c 为了满足现在多媒体播放的高清晰 xff0c 高品质 xff0c 颜色管理 xff0c 以及充分利用硬
  • Dockerfile中 使用pip镜像源加速下载

    用dockerfile文件制作镜像 xff0c 提高pip下载速度 1 安装pip3 xff0c python3 RUN apt get update RUN apt get install y python3 5 RUN apt get
  • NVIDIA Jetson Nano主机的autoware的学习与demo运行-第7章-Autoware源码安装

    Autoware源码安装 建立workspace mkdir p autoware ai src cd autoware ai 这个是下载了一个名为autoware ai repos的文件 xff0c 是为了方便管理多个git库而开发 43
  • NVIDIA Jetson Nano主机的autoware的学习与demo运行-第8章-Autoware官方demo运行

    Autoware官方demo 个人学习者很少拥有齐全的传感器以及工控机 xff0c 所以我们可以用autoware ai官网提供的一些录制好的rosbag包及个人笔记本来跑些有趣的demo 安装了 Autoware 之后 xff0c 就可以
  • NVIDIA Jetson AGX Xavier主机刷机与SSD安装

    任务逻辑 当有个新的AGX主机到手上后 xff0c 主机是启动的是eMMC xff0c 大约30G存储 这个安装了系统后到后面随便弄一下就不够存储了 xff0c 所以我是想要在主机上安装一个SSD xff0c 然后将系统直接放到SSD上 x