TensorRT安装教程推荐这篇文章,github访问不了,就看下边csdn上的那篇:
https://arleyzhang.github.io/articles/7f4b25ce/
https://blog.csdn.net/zong596568821xp/article/details/86077553
TensorRT安装的B站视频教程https://www.bilibili.com/video/av86802077?p=2
如果出错了看是不是这个问题:https://blog.csdn.net/qq_33047753/article/details/101604686
还解决不了,可以在评论区留言,我看到就会回复
TensorRT官方安装、升级、卸载指南:https://docs.nvidia.com/deeplearning/sdk/tensorrt-install-guide/index.html
下边的内容我是学习B站上一位UP主的教程,自己顺便记录一下学习的内容。
一、如何用TensorRT加速Tensorflow模型加速:
1、导入tensorrt
import tensorrt as trt
2、创建冻结的TensorFlow模型
3、使用UFF转换器将冻结的tensorflow模型转换为UFF文件
$convert-to-uff frozen_inference_graph.pb
4、定义路径,更改以下路径以反映Samples中包含的模型位置
>>>model_file = './data/mnist/mnsit.uff'
5、创建builder,network和parser:
with builder = trt.Builder(TRT_LOGGER) as builder,builder.create_network() as network,trt.UffParser() as parser:
parser.register_input('Placeholder',(1,28,28))
parser.register_output('fc2/Relu')
parser.parse(model_file,network)
评论(0)
您还未登录,请登录后发表或查看评论