TX2使CPU&&GPU跑满测试

2023-05-16

使nvidia进入满跑模式

NVIDIA提供一种新的命令行工具,可以方便地让用户配置CPU状态,以最大限度地提高不同场景下的性能和能耗。
Jetson TX2由一个GPU和一个CPU集群组成。 CPU集群由双核丹佛2处理器和四核ARM Cortex-A57组成,通过高性能互连架构连接。GPU 是由两个Pascal 架构的SM组成 , 计算能力 6.2,还有一些用来加速特定应用的ASIC电路.

性能模式列表

TX2 拥有6个CPU核心和一个GPU,你可以不必自行运行所有性能/功耗来测试最佳的运行状态,因为NVIDIA的新的命令工具Nvpmodel,提供了5种模式。在Jetson TX2上。 下表列出了CPU内核的模式以及正在使用的CPU和GPU的最大频率。

modemode nameDenver2Frequencyarm A57FrequencyGPU Frequency
0MAX-N22.0GHz42.0GHz1.30GHz
1MAX-Q041.2GHz0.85GHz
2MAX-P CORE-ALL21.4GHz41.4GHz1.12GHz
3MAX-P ARM042.0GHZ1.12GHz
4MAX-P Denver22.0GHz01.12GHz

TX2默认模式是只开4个CPU, 所以你如果要打开其最大性能的话,那就试试nvpmodel ,切换一下模式吧.

用法

nvidia@tegra-ubuntu:~$ sudo nvpmodel 
[sudo] password for nvidia: 
Nvidia Power Model Tool Version 1.0.0
Usage:
    nvpmodel [-h | --help] [--verbose] [-q | --query] [-p | --parse] [-u | --udata]
    [-m | --mode <mode>] [-f | --conf <filename>] [-o | --os <android,l4t>]
-h, --help:
    Print this help info.
--verbose:
    Enable verbose log.
-p, --parse:
    Parse the config file only. Recommended to enable verbose log.
-m, --mode <mode>:
 <mode> is one of the integer POWER_MODEL ID defined in config file. Switch to the specified power mode.
-f, --conf:
 explicitly specify the config file.            
    If it is the only option, then it sets the power mode as default mode configured in the file.            
    This option can be used for developer usage to specify a config file other than the default one.
-o, --os <android,l4t>:
    Perform OS specific operations for power model settings. Argument is case insensitive.
-q, --query:
    Query the current power mode.
-w, --wait:
    delay exectuion by specified amount of seconds.
-u, --udata:
    specify the absolute path for user data file when set or query power mode.
    
$ nvpmodel -m 0

#NVIDIA性能模式选择MAXP CORE ALL模式

  • 屏幕右上角可选择
  • 或者使用下方命令(2为模式编号)
    nvidia@tegra-ubuntu:~$ sudo nvpmodel -m 2

#查看Jetson TX1/2 CPU和GPU性能使用状态

  • 系统自带
    nvidia@tegra-ubuntu:~$ sudo ~/tegrastats

  • 可视化(CPU)
    nvidia@tegra-ubuntu:~$ sudo -H pip install s-tui -i http://pypi.douban.com/simple --trusted-host pypi.douban.com
    nvidia@tegra-ubuntu:~$ sudo s-tui

  • 分别介绍一下作用
    RAM 就是内存占用
    cpu 当然就是CPU占用率了,TX2一共6个核,我再之前一篇如何配置中说过
    EMC – external memory controller, 就是外存控制器 单位 bus%@MHz
    AVP – audio/video processor, TX2 自带的音频视频ASIC处理器 单位 processor%@MHz
    VDE – video decoder engine, TX2 带有视频编解码hevc的加速器 %MHz
    GR3D – GPU, processor, GPU的主频 %@MHz

#开N个该程序,使GPU跑满为止
nvidia@tegra-ubuntu:~$ cd ~/VisionWorks-SFM-0.90-Samples/bin/aarch64/linux/release
nvidia@tegra-ubuntu:~$ ./nvx_sample_sfm

使CPU跑满

安装stress

  • 更新软件源
    nvidia@tegra-ubuntu:~$ sudo apt-get update
  • 安装stress
    nvidia@tegra-ubuntu:~$ sudo apt-get install stress

stress 介绍

shell 输入stress会有提示,参数的介绍及使用的例子

  • 使用以下命令
    nvidia@tegra-ubuntu:~$ stress --cpu 6(6为CPU个数) --io 4 --vm 2 --vm-bytes 128M --timesout 1000s
  • 或者使用下方命令
    nvidia@tegra-ubuntu:~$ stress -c 6(6为CPU个数)

#查看CPU是否跑满
活动里查找打开 System Monitor

#查看温度
nvidia@tegra-ubuntu:~$ psensor

打开风扇
进入root用户
sudo su
echo 255 > /sys/devices/pwm_fan/target_pwm

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

TX2使CPU&&GPU跑满测试 的相关文章

  • 如何让Java使用机器上的所有CPU资源?

    我有时用 Java 编写代码 我注意到有时它在多核机器上使用超过 100 的 CPU 我现在正在一台具有 33 个 CPU 亚马逊的 EC2 的多核机器上运行一些代码 我想让我的 Java 进程使用所有可用的 CPU 这样它将具有非常高的机
  • 如何使用 eclipse Nsight 仅使用一个 GPU 调试 CUDA

    我收到错误 所有 cuda 设备均用于显示 在调试时无法使用 使用Ubuntu 有没有什么方法可以使用 Nsight eclipse 仅使用一个 GPU 进行调试 我见过类似的解决方案 sudo 服务 lightdm 停止 杀死 X 但这也
  • 核心和处理器之间的区别

    核心和处理器有什么区别 我已经在谷歌上寻找过它 但我只得到了多核和多处理器的定义 这不是我正在寻找的 核心通常是 CPU 的基本计算单元 它可以运行单个程序上下文 如果支持硬件线程 例如 Intel CPU 上的超线程 则可以运行多个程序上
  • Keras 不在具有 python 3.5 和 Tensorflow 1.4 的 Pycharm 上使用 GPU [重复]

    这个问题在这里已经有答案了 from tensorflow python client import device lib def get available gpus local device protos device lib list
  • 当JVM执行Java应用程序时,操作系统的作用是什么?为什么我们需要操作系统?

    我在网上读过一些资料 有人说Java应用程序是由java虚拟机 JVM 执行的 执行 这个词让我有点困惑 据我所知 非Java应用程序 即 用C C 编写 可以由操作系统执行 在较低级别 这意味着操作系统将二进制程序加载到内存中 然后指示C
  • 在 Tensorflow 中训练简单模型 GPU 比 CPU 慢

    我在 Tensorflow 中设置了一个简单的线性回归问题 并在 1 13 1 中使用 Tensorflow CPU 和 GPU 创建了简单的 conda 环境 在 NVIDIA Quadro P600 的后端使用 CUDA 10 0 然而
  • 使用 pytorch 获取可用 GPU 内存总量

    我正在使用 google colab 免费 Gpu 进行实验 并想知道有多少 GPU 内存可供使用 torch cuda memory allocated 返回当前占用的 GPU 内存 但我们如何使用 PyTorch 确定总可用内存 PyT
  • C# 程序占用太多CPU?

    我有一个程序 它在启动时不断地在 3 个独立的计时器之间切换 我的应用程序的主线程有一个 while 循环 它不断检查全局变量是否已设置为 true 如果设置为 true 它将停止一个计时器并启动另外两个计时器 一个连续 另一个自动停止 如
  • Django 开发服务器 CPU 密集型 - 如何分析?

    我注意到本地 windows7 机器上的 django 开发服务器 版本 1 1 1 正在使用大量 CPU 根据任务管理器的 python exe 条目 约为 30 即使处于空闲状态 即没有请求到来进 出 是否有一种既定的方法来分析可能造成
  • 在 python docker 镜像上使用 GPU

    我正在使用一个python 3 7 4 slim busterdocker 镜像 我无法更改它 我想知道如何使用我的英伟达 GPU on it 我通常用一个tensorflow tensorflow 1 14 0 gpu py3并用一个简单
  • 同时使用 2 个 GPU 调用 cudaMalloc 时性能较差

    我有一个应用程序 可以在用户系统上的 GPU 之间分配处理负载 基本上 每个 GPU 都有一个 CPU 线程来启动一个GPU处理间隔当由主应用程序线程定期触发时 考虑以下图像 使用 NVIDIA 的 CUDA 分析器工具生成 作为示例GPU
  • CUDA Visual Studio 2010 Express 构建错误

    我正在尝试在 64 位 Windows 7 上使用 Visual Studio 2010 Express 在 Windows 上开始 CUDA 编程 我花了一段时间来设置环境 然后我刚刚编写了我的第一个程序 helloWorld cu 目前
  • C# - 获取 GPU 的总使用百分比

    我正在向我的程序添加一些新功能 这些功能当前通过串行连接将 CPU 使用情况和 RAM 使用情况发送到 Arduino 请参阅this https create arduino cc projecthub thesahilsaluja cp
  • NV_path_rendering替代方案[关闭]

    Closed 这个问题不符合堆栈溢出指南 help closed questions 目前不接受答案 我刚刚观看了 Siggraph 2012 的一个非常令人印象深刻的演示 http nvidia fullviewmedia com sig
  • 获取总体 CPU 百分比使用率的可能性有哪些

    我有以下问题 在UWP中 我们如何获取总体CPU使用率 RAM使用率 可用RAM 正在运行的进程等 UWP 中的任务管理器需要它 您好 经过一番查看后 您似乎无法获得设备 CPU RAM 和可用 RAM 或正在运行的进程 您可以获得 CPU
  • 如何为 CUDA 内核选择网格和块尺寸?

    这是一个关于如何确定CUDA网格 块和线程大小的问题 这是对已发布问题的附加问题here https stackoverflow com a 5643838 1292251 通过此链接 talonmies 的答案包含一个代码片段 见下文 我
  • NodeJS CPU 一次飙升至 100%

    我有一个用 NodeJS 编写的 SOCKS5 代理服务器 我正在使用原生net and dgram打开 TCP 和 UDP 套接字的库 它可以正常工作大约 2 天 所有 CPU 的最大利用率约为 30 两天没有重新启动后 一个 CPU 峰
  • CPU 周期与总 CPU 时间

    在 Windows 上 GetProcessTimes 和 QueryProcessCycleTime 可用于获取应用程序所有线程的总计 我期望 显然是天真地 找到总周期数和总处理器时间 用户 内核 之间的比例关系 当转换为相同的单位 秒
  • 错误:分配具有形状的张量时出现 OOM

    在使用 Apache JMeter 进行性能测试期间 我面临着初始模型的问题 错误 分配形状为 800 1280 3 和类型的张量时出现 OOM 通过分配器浮动在 job localhost replica 0 task 0 device
  • OpenCL 内核在 Nvidia GPU 上每个线程使用多少寄存器?

    我的第一个问题是如何获取 Nvidia GPU 上 OpenCL 内核代码的寄存器使用信息 因为 nvcc 编译器给出了相同的使用信息nvcc ptxas options vCUDA 内核代码的标志 我还从 AMD GPU for Open

随机推荐

  • Vue中父组件向子组件传值,子组件没有接收到

    情景介绍 父组件调用接口获取数据 xff0c 然后通过props传值给子组件 xff0c 子组件拿到数据后渲染到 el table 表格组件中 结果子组件没有将数据渲染到表格中 xff0c 但是控制台打印是获取到数据的 问题分析 先看父组件
  • 数字通信系统的性能及可靠性

    目录 1 数字通信系统的性能 2 数字通信系统的可靠性 1 数字通信系统的性能 数字通信系统的性能由码元速率 信息速率 频带利用率表示 每个码元所携带的信息量I定义如下 xff1a 这里 P 是每个码元的概率 xff0c M 是码元的个数
  • 前端学习资源分享

    学习资源 编程导航 xff08 包含以下所有资源 xff0c 强烈推荐 x1f44d xff09 xff1a https www code nav cn freeCodecamp 在线编程 xff1a https learn freecod
  • 嵌入式方向分析

    很多计算机 电子信息类专业的学生都想把嵌入式开发作为自己的职业目标 xff0c 但是因为嵌入式涉及的知识太多 xff0c 太杂 xff0c 太广 xff0c 很多嵌入式初学者陷入嵌入式知识的海洋中 xff0c 东学一点 xff0c 西学一点
  • UWB-DW1000初始化、发送和接收详解(一)

    DWM1000简介 DWM1000板子上的DW1000芯片 xff0c 是基于CMOS的 低功耗的无线收发集成电路 xff0c 遵循IEEE 802 15 4 2011协议中的UWB标准芯片 DWM1000不需要用户去设计电路 xff0c
  • 云计算-弹性存储

    云盘 挂载到ECS上的磁盘 NAS 文件存储 OSS 对象存储 外链图片转存失败 源站可能有防盗链机制 建议将图片保存下来直接上传 img 1NMdcten 1653882562436 https files mdnice com user
  • computers & security投稿教程

    在computers amp security上投稿了一篇论文 xff0c 中间还是遇到一些不太懂的东西 xff0c 在此记录下来 1 首先打开官网 xff0c 链接 https www editorialmanager com cose
  • 【SDN测试题】

    SDN测试题 一 判断题 NFV与SDN的基础都是通用服务器 云计算以及虚拟化技术 正确答案 xff1a 对 安装OpenvSwitch时必须根据系统内核版本选择相应的Open vSwitch版本 正确答案 xff1a 对 执行命令ovs
  • 【阅读论文】基于VAE-LSTM混合模型的时间序列异常检测

    Anomaly Detection for Time Series Using VAE LSTM Hybrid Model CCFB Shuyu LinRonald ClarkRobert BirkeSandro Sch nbornNiki
  • Python调用adb shell

    在Android开发中 xff0c ADB xff08 Android Debug Bridge xff09 是一个非常重要的工具 它可以让我们通过命令行或者其他的客户端与安装了ADB驱动的Android设备进行通信 xff0c 并进行一些
  • stm32F103C8T6基于FreeRTOS操作系统的多任务

    目录 一 FreeRTOS简介1 什么是FreeRTOS 2 FreeRTOS特点 二 创建项目三 编写代码四 编译烧录五 总结参考链接 一 FreeRTOS简介 1 什么是FreeRTOS 我们看一下FreeRTOS的名字 xff0c 可
  • 通信系统是如何收发复数信号的:IQ 调制原理

    目录 1 IQ 调制过程 2 IQ 调制原理 3 IQ 调制解调系统框图 通信信号处理的过程中大多使用的都是复值信号 xff0c 但是我们应该清楚 xff0c 复值信号在自然界中是不存在的 xff0c 那么在理论中的复数信号是如何通过现实中
  • 【NVIDIA Xavier NX 安装ROS-melodic + Realsense D435i环境搭建】

    文章目录 背景一 软硬件信息二 过程1 盒子到手 xff0c 悔无调研2 死马当活医 xff0c 但仍有隐患3 安装ROS4 下载编译Realsense ros 三 正片 xff08 装Librealsense和ROS Wrapper看这里
  • 【入坑ORB-SLAM3系列2】未标定的realsense D435i试运行ORB-SLAM3(手把手教学,含realsense d435i一些错误的解决)

    文章目录 前言一 前奏1 Error 12 Error 2 二 正文1 查看自己相机的可用的分辨率与频率2 配置rs camera launch xff08 realsense ros文件夹中 xff09 3 修改 yaml配置文件4 修改
  • 【NVIDIA Xavier NX入坑记录2】基于Ubuntu18.04-Xavier NX的格式化磁盘,挂载磁盘到/home,转移系统到新磁盘

    文章目录 前言一 格式化1 查看磁盘情况2 磁盘分区3 格式化 二 把格式化后未挂载的磁盘挂载到 home xff08 此操作有风险 xff09 1 将 home目录重命名 xff0c 并创建新的 home文件夹2 挂载并迁移原home中的
  • 【杂记1】PC-Ubuntu18.04.5+ROS-melodic环境下安装cartographer功能包

    提示 xff1a 文章写完后 xff0c 目录可以自动生成 xff0c 如何生成可参考右边的帮助文档 文章目录 前言一 ROS下命令行安装 xff08 简单 xff0c 稍微提一下 xff09 二 源码安装cartographer xff0
  • FreeRTOS笔记(仅供参考)

    文章目录 1 FreeRTOS1 1 文件1 2 移植1 3 FreeRTOS的编程风格1 3 1 数据类型1 3 2 变量名1 3 3 函数名 1 4 裸机 amp 多任务系统1 5 数据结构1 5 1 链表1 5 2 双向链表1 5 3
  • 惯性导航技术, IMU, AHRS

    文章目录 1 惯性导航技术1 1 概述1 2 惯性导航原理1 2 1 加速度计1 2 2 陀螺仪1 2 3 磁力计 1 3 技术架构1 4 主要性能1 5 应用 2 国内外现状2 1 技术对比2 1 产业链2 2 市场 3 发展趋势参考 1
  • (入门、全面、通用)树莓派Raspbian系统安装配置,篇一

    xff08 2020 12更新 xff09 树莓派系统常用安装以及配置流程 xff0c 烧录篇 写在前面 回想起我第一次接触树莓派的时候 xff0c 就感觉电路板好帅 xff0c 然后啥也不会 xff0c 屏幕也没有 因为自己找了一些学校的
  • TX2使CPU&&GPU跑满测试

    使nvidia进入满跑模式 NVIDIA提供一种新的命令行工具 xff0c 可以方便地让用户配置CPU状态 xff0c 以最大限度地提高不同场景下的性能和能耗 Jetson TX2由一个GPU和一个CPU集群组成 CPU集群由双核丹佛2处理