随着TensorRT8.0版本的发布,windows下也正式支持Python版本了,跟紧NVIDIA的步伐,正式总结一份TensorRT-python的使用经验。
一、底层库依赖
在安装TensorRT前,首先需要安装CUDA、CUDNN等NVIDIA的基本库,如何安装,已经老生常谈了,这里不再过多描述。
关于版本的选择,楼主这里:
CUDA版本,楼主这里选择的是 cuda11.5 ,具体cuda版本见 https://developer.nvidia.com/cuda-toolkit-archive,可自行下载。
CUDNN版本,选择 cudnn-11.3-windows-x64-v8.2.1.32,官网下载需要先注册账号,https://developer.nvidia.com/rdp/cudnn-archive
二、windows下安装TensorRT
首先去官网下载对应的TensorRT版本
https://developer.nvidia.com/nvidia-tensorrt-8x-download
楼主选的这,再选择对应的系统版本
解压下来对应多个文件,把lib里的所有dll库都拷贝到cuda在的目录下(或者添加到环节变量)。
拷贝到 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.5\bin
最后,控制台进入安装包的python目录,选择对应的python版本进行安装即可
如楼主这里是python3.8
则在控制台下CD到当前目录,安装即可
pip install tensorrt-8.2.3.0-cp38-none-win_amd64.whl
二、Linux下安装
linux安装步骤和windows下是一样的,只不过需要选择对应的下载包,需要注意一下,ubuntu和Centos是不同的安装包
三、测试是否安装成功
写个脚本就可以啦
建立一个python工程,测试是否安装成功
```python
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
* * *** * * * *
* * * ** * *
**** * ** * *
* * * ** * *
* * ** * * ****
@File : hello_tensorrt.py
@Date : 2022/2/10/010
@Require :
@Author : https://blog.csdn.net/hjxu2016
@Funtion :
"""
import tensorrt as trt
if __name__ == "__main__":
print(trt.__version__)
print("hello trt!!")