TX2编译TensorRT的C++ samples ——Jetpack4.3

2023-05-16

不得不说,JetPack 4.3实在是太方便了!

1. Where is TensorRT

1.1 C++版本

与手动安装tensorRT不同,JetPack自动将TensorRT c++的lib中的文件保存在了

/usr/lib/aarch64-linux-gnu/

1.2 Python版本

import tensorrt
tensorrt.__version__
#6.0.1.10

2.编译C++ Sample

git clone -b release/6.0 https://github.com/nvidia/TensorRT TensorRT
cd TensorRT
git submodule update --init --recursive
export TRT_SOURCE=`pwd`
mkdir -p build && cd build
cmake .. -DTRT_LIB_DIR=/usr/lib/aarch64-linux-gnu/ -DTRT_BIN_DIR=`pwd`/out
make -j$(nproc) TARGET=aarch64

注意三点

  • git clone时要选择6.0
  • 修改TensorRT lib的路径
  • 编译时选择TARGET为aarch64,因为TX2为Arm架构的.
    参考网址

3.使用C++ Sample

注意使用out/里的例子时,要先将so文件复制到TensorRT lib路径下,即

cd out/
sudo cp *.so* /usr/lib/aarch64-linux-gnu

4.可能遇到的问题

可能会遇到protobuf下载时网络不响应的问题,原因在于curl不能识别https://开头的网址,需要重新编译curl.
办法见TX2编译安装curl,使其可以解析https

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

TX2编译TensorRT的C++ samples ——Jetpack4.3 的相关文章

  • Jetson tx2 安装jetpack_3.3手动安装cuda9.0,cudnn7.1

    1 刷机前的准备 xff08 写在前面的话 xff09 装有Ubuntu16 04或者Ubuntu18 04的电脑 xff0c 这里说的电脑可以是台式机也可以是笔记本与TX2区分开来 xff08 电脑是16 04或者18 04无所谓 xff
  • Jetson Xavier NX/TX2/Nano更换源(清华源/中科大源)(arm64架构)

    因为jetson系列的源都是国外的 xff0c 下载中途经常断线且很慢 所以要换源 xff0c 换为国内源后 xff0c 下载速度更快 而清华大学的源可以在jetson上完美使用 所以可以更换为清华大学的源 注意使用的是ubuntu18 0
  • 【tx2】——NVIDIA TX2--3--NVIDIA Jetson TX2 查看系统版本参数状态及重要指令

    NVIDIA Jetson TX2 查看系统参数状态 当前博主的TX2更新的版本为 xff1a Jetpack 3 3 cuda 9 0 252 cudnn7 0 opencv3 3 1 TensorRT4 0 2 系统内核 xff1a t
  • Tx2 设置静态IP的两种方法

    Tx2设置静态ip的两种方法 Tx2静态ip设置可通过桌面右上角的有线连接配置中的ipv4的配置来设置 xff1b Tx2静态ip设置的第二种方法是通过间接修改ipv4的配置来设置 xff1b 用ifconfig来查看你使用的是哪个网络设备
  • TX2安装ubuntu18,ROS

    设备 TX2 8G版本 ubuntu18 04笔记本一台 重要提示 请看完全文再安装 xff01 本文不是手把手教你安装类型教程 给TX2刷系统 看看我的参考博客1吧 最好参考最新的博客 xff0c 现在官网的新版本都不是这样 JetPac
  • TX2超详细,超实用刷机教程(亲测有效,所有步骤都是博主亲自实践过)

    本篇主要对TX2刷机流程以及刷机过程中遇到的坑和相应的解决办法做个记录 xff0c 以便再次刷机时能做个参考 如果你刚好收到TX2开发者套件 xff0c 还没有进行开箱 xff0c 那么请移步到我的前一篇博客进行TX2的开机测试 博客链接
  • Jetson Nano( 五) TensorRT yolov4 yolov4-tiny yolov5 实测

    TensorRT yolov4 yolov4 tiny yolov5 长期更新 文章目录 TensorRT yolov4 yolov4 tiny yolov5 长期更新软硬件环境参考大佬项目简要流程注意要点操作流程记录遇坑推理速度记录 软硬
  • TX2从入门到放弃学习笔记(1)-基础

    一 资源简介 TX2作为TX1的改进版 xff0c 资源配置相当强劲 1 模组配置 256 core NVIDIA Pascal GPU ARMv8 64 bit Multi Processor CPU Complex Advanced H
  • TX2自动刷机视频教程

    TX2自动刷机视频教链接https v qq com x page b0515967lbr html
  • Ubuntu 18.04 (Jetson Nano 4G/TX2)配置 CCM-SLAM

    文章目录 1 安装ROS2 安装OpenCV33 设置虚拟内存4 安装CCM SLAM 记录了安装CCM SLAM的详细过程以及踩过的坑 安装环境 xff1a Jetson Nano 4G Ubuntu 18 04 1 安装ROS 1 1更
  • caffe模型TensorRT部署实践(一)

    参考代码 TensorRT安装包下的samples sampleMNIST sampleMNIST cpp 1 设置使用的gpu id xff0c 如果不设置 xff0c 默认使用第0块 cudaSetDevice 3 set device
  • Jetson TX2 入门 ——介绍

    暑假留校 xff0c 老师给我们拿了两块开发板 xff0c 一个是英伟达的Jetson TX2 xff0c 一个是up squared xff0c 让我们先熟悉开发板 xff0c 为明年的比赛做准备 这两个板子是前几届学长做比赛用过的 自己
  • TensorRT简介

    一 什么是TensorRT 一般的深度学习项目 训练时为了加快速度 会使用多 GPU 分布式训练 但在部署推理时 为了降低成本 往往使用单个 GPU 机器甚至嵌入式平台 比如 NVIDIA Jetson 进行部署 部署端也要有与训练时相同的
  • 1. TensorRT量化的定义及意义

    前言 手写AI推出的全新TensorRT模型量化课程 链接 TensorRT下的模型量化 课程大纲如下 1 量化的定义及意义 1 1 什么是量化 定义 量化 Quantization 是指将高精度浮点数 如float32 表示为低精度整数
  • TensorRT使用笔记

    一 简介 1 官网 https docs nvidia com deeplearning sdk tensorrt install guide index html NVIDIA TensorRT是一个C 库 可以进行NVIDIA GPU的
  • CUDA和TensorRT入门

    CUDA 官方教程 CUDA C Programming Guide nvidia com 一 基础知识 首先看一下显卡 GPU 和CUDA的关系介绍 显卡 GPU和CUDA简介 吴一奇的博客 CSDN博客 延迟 一条指令返回的时间间隔 吞
  • 将MATLAB环境下深度学习目标检测模型部署在Jetson TX2开发板

    摘要 在MATLAB2019b环境下训练深度学习目标检测模型 利用MATLABcoder和GPUcoder生成c 代码和CUDA代码 并部署在NVIDIA Jetson TX2开发板上运行 1 利用NVIDIA SDK manager对TX
  • 使用tensorrt加速深度学习模型推断

    使用tensorrt加速深度学习模型推断 1 import以及数据加载 构建engine函数 2 导入官方模型及CIFAR100数据集 3 不采用tensort的推断时间 4 采用tensort加速 使用tensorrt 库 4 1 导出o
  • 无法在tensorflow r1.14中导入“tensorflow.contrib.tensorrt”

    我已经安装了Tensorflow r1 14并想使用TF TRT 但是 出现以下错误 ModuleNotFoundError 没有名为 tensorflow contrib tensorrt 的模块 运行示例代码时 同样的错误发生在Tens
  • TensorRT 多线程

    我正在尝试使用 python API 来使用 TensorRt 我试图在多个线程中使用它 其中 Cuda 上下文与所有线程一起使用 在单个线程中一切正常 我使用 docker 和 tensorrt 20 06 py3 图像 onnx 模型和

随机推荐