【TensorRT】TensorRT踩过的坑

2023-05-16

1、TensorRT发布的模型(engine)不能跨平台使用

例如linux发布的模型不能在windows下用。

2、TensorRT发布的模型需要在相同GPU算力(compute capability)的情况下使用

否则会导致compute capability不匹配问题,例如算力6.1发布的模型不能在7.5上用。

 

查询显卡算力:CUDA GPUs | NVIDIA Developer

3、TensorRT发布的模型需要在匹配的CUDA和cudnn环境下用

TensorRT本身有严格的CUDA/cudnn版本兼容细分,虽然部分环境版本浮动可以有一定的适用性,但可能导致速度不稳定等问题,推荐使用同发布模型匹配的CUDA和cudnn环境。

CUDA小版本不一致会遇到警告:

[W] [TRT] TensorRT was linked against cuBLAS/cuBLAS LT 11.3.0 but loaded cuBLAS/cuBLAS LT 11.2.1

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

【TensorRT】TensorRT踩过的坑 的相关文章

  • 安装、使用mongodb踩过的坑

    轻松一下 没用分布式架构之前 xff0c 你只有一个问题 xff1a 并发性能不足 用了分布式架构 xff0c 多出了一堆问题 xff1a 数据如何同步 主键如何产生 如何熔断 分布式事务如何处理 使用mongodb踩过的坑 今天对安装 x
  • QT连接MYSQL踩过的坑

    1 QT版本需要与mysql版本一致 xff0c 我测试成功的版本都是64位的情况 2 添加引用和链接 include 34 MainWindow h 34 include 34 ui MainWindow h 34 include inc
  • 一文读懂TensorRT整数量化

    接下来有空也会整理一些实战性的东西 xff0c 比如结合pointpillars网络 xff0c 用TensorRT进行PTQ int8量化和利用pytorch quantization进行QAT量化 感兴趣可以关注下 xff01 待继续整
  • TensorRT INT8量化说明文档

    TensorRT developer guide intro quantization 7 Working with INT8 7 1 Introduction to Quantization 7 1 1 Quantization Work
  • Ubuntu18.04编译TensorRT MaskRCNN例子和模型转化---sampleuffMaskRCNN

    Ubuntu18 04编译TensorRT MaskRCNN例子和模型转化 0 前期准备Step1 安装requirement txt需要的依赖Step2 安装编译sample需要的其他系统的包Step3 Clone github 的Ten
  • 【TensorRT】TensorRT踩过的坑

    1 TensorRT发布的模型 xff08 engine xff09 不能跨平台使用 例如linux发布的模型不能在windows下用 2 TensorRT发布的模型需要在相同GPU算力 xff08 compute capability x
  • caffe模型TensorRT部署实践(一)

    参考代码 TensorRT安装包下的samples sampleMNIST sampleMNIST cpp 1 设置使用的gpu id xff0c 如果不设置 xff0c 默认使用第0块 cudaSetDevice 3 set device
  • TensorRT简介

    一 什么是TensorRT 一般的深度学习项目 训练时为了加快速度 会使用多 GPU 分布式训练 但在部署推理时 为了降低成本 往往使用单个 GPU 机器甚至嵌入式平台 比如 NVIDIA Jetson 进行部署 部署端也要有与训练时相同的
  • TensorFlow 1.8.0 + TensorRT 4.0 安装过程 (5月11日更新:目前在Ubuntu 18.04不可行)

    在上一篇 基于tar文件的TensorRT 4 0安装过程 中 完成了TensorRT的安装 但由于其语言环境为C 因而无法与TensorFlow结合 TensorFlow 1 7 0 已经集成了TensorRT 但需要从头编译安装 现记录
  • TensorRT基于caffe模型加速MobileNet SSD

    TensorRT加速MobileNet SSD分解为三个问题 1 图像的预处理 2 结果的处理 3 depthwise convolution层的实现 针对1 图像预处理我就不多言了 针对2 结果处理 由于tensorRT中有SSD的det
  • TensorRT使用笔记

    一 简介 1 官网 https docs nvidia com deeplearning sdk tensorrt install guide index html NVIDIA TensorRT是一个C 库 可以进行NVIDIA GPU的
  • tensorrt的安装和使用

    安装 提前安装好 CUDA 和 CUDNN 登录 NVIDIA 官方网站下载和主机 CUDA 版本适配的 TensorRT 压缩包即可 以 CUDA 版本是 10 2 为例 选择适配 CUDA 10 2 的 tar 包 然后执行类似如下的命
  • TensorRT C++ 序列化serialize / 反序列化deserialize

    序列化Engine serialize the engine then close everything down const std string engine file tensorrt mnist trt nvinfer1 IHost
  • 解决CuDNN runtime版本和编译版本不同的问题

    在编译安装好TensorFlow后 可下载示例代码运行 但在执行run all sh时 出现如下错误 该错误意思就是CuDNN的runtime版本和编译时指定的版本不同 2018 05 08 09 00 18 042137 E tensor
  • 使用最新版本Android NDK-r21 编译 opencv-3.3.1 + opencv_contrib-3.3.1

    由于新版本的NDK跟旧版本NDK编译的opencv存在兼容问题 所以需要使用最新的NDK重新编译opencv 方法步骤如下 Android NDK r21 编译 opencv 3 3 1 opencv contrib 3 3 1 1 sud
  • mysql-workbench使用中遇到的坑

    1 mysql workbench的安装 问题 1 弹出找不到C 的库 解决 1 的确缺少了这个库 按提示下载一个就好 安装框的左下角 有下载地址 2 有这个库 但就是找不到 可能是win10的问题 win10安装msi的文件需要管理员权限
  • YOLOv4 tensorrt推理 python版【附代码】

    学了几天的tensorRT 又经过了几天的努力终于实现了YOLOv4 tensorRT推理 这篇文章将把这些成果开源出来 供大家免费使用 YOLOv4代码我采用的是b站up主Bubbliiiing 相信大家应该都比较熟悉这位大佬 关于trt
  • 如何将 cv::MAT 转换为 NHCW 格式?

    在User Guide html中 tensorRT的输入 输出需要使用NCHW格式 什么是 NCHW 格式 如何将 cv MAT 转换为 NCHW 格式 我使用 TensorRT 运行推理 如下代码所示 没有任何错误 但是 这不是正确的输
  • 使用 NVIDIA TensorRT 推理引擎运行 Tensorflow

    我想使用 NVIDIA TensorRT 来运行我的 Tensorflow 模型 目前 TensorRT 支持 Caffe prototxt 网络描述符文件 我无法找到将 Tensorflow 模型转换为 Caffe 模型的源代码 有什么解
  • 在 python 上使用 TensorRT .engine 文件进行推理

    我使用 Nvidia 的迁移学习工具包 TLT 进行训练 然后使用 tlt converter 将 etlt 模型转换为 engine 文件 我想使用这个 engine 文件在 python 中进行推理 但由于我使用 TLT 进行训练 因此

随机推荐