export_trt_record 1.4 KB

1234567891011121314151617181920212223
  1. # onnx转trt,需要安装tensorrt库
  2. # 需要压缩包中的bin、include、lib文件,然后添加lib文件路径到系统路径中
  3. # windows为:系统->高级系统设置->环境变量->系统变量->Path中加入
  4. # linux为:sudo ldconfig lib位置
  5. # 然后找到对应版本的whl文件使用pip install ....whl。bin中是官方提供的onnx转trt程序
  6. # -------------------------------------------------------------------------------------------------------------------- #
  7. 这里的导出程序实际上是tensorrt安装包中的bin里的文件。windows为trtexec.exe。linux为trtexec
  8. windows:
  9. export_trt.exe --onnx=best.onnx --saveEngine=best.trt --fp16 --useCudaGraph
  10. linux:
  11. export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:lib位置
  12. export_trt --onnx=best.onnx --saveEngine=best.trt --fp16 --useCudaGraph
  13. # -------------------------------------------------------------------------------------------------------------------- #
  14. # export_trt.exe:查看提示信息
  15. # --onnx=onnx模型位置
  16. # --saveEngine=trt模型保存位置
  17. # --noTF32:禁用float32精度
  18. # --fp16:启用float16精度
  19. # --int8:启用int8精度
  20. # --best:开启所有精度(有的模型是混合精度的)
  21. # --device=0:使用的GPU号码,默认为0
  22. # --useCudaGraph:尝试使用cuda图
  23. # 转换过程中有很多提示信息,可以解决大多数问题。转换后会进行速度测试。不指定输入形状时默认为单批量预测(推荐)