模型导出 您所在的位置:网站首页 ff14NPC模型导出 模型导出

模型导出

#模型导出 | 来源: 网络整理| 查看: 265

模型导出¶

训练得到一个满足要求的模型后,如果想要将该模型接入到C++预测库或者Serving服务,需要通过tools/export_model.py导出该模型。同时,会导出预测时使用的配置文件,路径与模型保存路径相同, 配置文件名为infer_cfg.yml。

说明:

输入部分: 导出模型输入为网络输入图像,即原始图片经过预处理后的图像,具体预处理方式可参考配置文件中TestReader部分。各类检测模型的输入格式分别为: 模型系列名称 输入图像预处理方式 其他输入信息 YOLO 缩放至指定大小,归一化 im_size: 格式为[origin_H, origin_W], origin为原始图像 SSD 缩放至指定大小,归一化 im_shape: 格式为[origin_H, origin_W], origin为原始图像 RCNN 归一化,等比例缩放 1. im_info: 格式为[input_H, input_W, scale],input为输入图像,scale为输入图像大小/原始图像大小 2. im_shape:格式为[origin_H, origin_W, 1.], origin为原始图像 RCNN+FPN 归一化,等比例缩放,对图像填充0使得长宽均为32的倍数 1. im_info: 格式为[input_H, input_W, scale],input为输入图像,scale为输入图像大小/原始图像大小 2. im_shape:格式为[origin_H, origin_W, 1.], origin为原始图像 RetinaNet 归一化,等比例缩放,对图像填充0使得长宽均为128的倍数 1. im_info: 格式为[input_H, input_W, scale],input为输入图像,scale为输入图像大小/原始图像大小 2. im_shape:格式为[origin_H, origin_W, 1.], origin为原始图像 Face 归一化 im_shape: 格式为[origin_H, origin_W], origin为原始图像 输出部分: 导出模型输出统一为NMS的输出,形状为[N, 6], 其中N为预测框的个数,6为[class_id, score, x1, y1, x2, y2]。 模型导出不支持模型结构中包含fluid.layers.py_func的情况。 启动参数说明¶ FLAG 用途 默认值 备注 -c 指定配置文件 None --output_dir 模型保存路径 ./output 模型默认保存在output/配置文件名/路径下 使用示例¶

使用训练/评估/推断中训练得到的模型进行试用,脚本如下

# 导出FasterRCNN模型, 模型中data层默认的shape为3x800x1333 python tools/export_model.py -c configs/faster_rcnn_r50_1x.yml \ --output_dir=./inference_model \ -o weights=output/faster_rcnn_r50_1x/model_final

预测模型会导出到inference_model/faster_rcnn_r50_1x目录下,模型名和参数名分别为__model__和__params__。

设置导出模型的输入大小¶

使用Fluid-TensorRT进行预测时,由于



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有