模型推理使用说明¶
2.1. topsinference-ppyolo¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/ppyolo
,相关文档存放于docs/model_docs/topsinference_models/ppyolo
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-COCO
处理后的数据集应放置在./data/COCO
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 ppyolo_mbv3_small_coco-320-op13-fp32-bs1.onnx ppyolo_mbv3_large_coco-320-op13-fp32-bs1.onnx ppyolo_tiny_650e_coco-320-op13-fp32-bs1.onnx ppyolo_r18vd_coco-512-op13-fp32-bs1.onnx ppyolo_r50vd_dcn_1x_coco-608-op13-fp32-bs1.onnx ppyolo_r50vd_dcn_2x_coco-608-op13-fp32-bs1.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame topsinference --model ppyolo --model_path ./model/ppyolo_mbv3_small_coco-320-op13-fp32-bs1.onnx --fp32_op p2o.NonMaxSuppression.0 --data_path ./data/COCO --input_width 320 --input_height 320 --draw_threshold 0.001 --batch_size 1 --prec fp16-mix --device gcu
python3 main.py --frame topsinference --model ppyolo --model_path ./model/ppyolo_mbv3_large_coco-320-op13-fp32-bs1.onnx --fp32_op p2o.NonMaxSuppression.0 --data_path ./data/COCO --input_width 320 --input_height 320 --draw_threshold 0.001 --batch_size 1 --prec fp16-mix --device gcu
python3 main.py --frame topsinference --model ppyolo --model_path ./model/ppyolo_tiny_650e_coco-320-op13-fp32-bs1.onnx --fp32_op p2o.NonMaxSuppression.0 --data_path ./data/COCO --input_width 320 --input_height 320 --draw_threshold 0.001 --batch_size 1 --prec fp16-mix --device gcu
python3 main.py --frame topsinference --model ppyolo --model_path ./model/ppyolo_r18vd_coco-512-op13-fp32-bs1.onnx --fp32_op NonMaxSuppression_0,Squeeze_3,Mul_2,Squeeze_8,Mul_13 --data_path ./data/COCO --input_width 512 --input_height 512 --draw_threshold 0.001 --batch_size 1 --prec fp16-mix --device gcu
python3 main.py --frame topsinference --model ppyolo --model_path ./model/ppyolo_r50vd_dcn_1x_coco-608-op13-fp32-bs1.onnx --fp32_op Concat_64,Squeeze_146,Mul_154,Squeeze_156,Mul_176,NonMaxSuppression_0 --data_path ./data/COCO --input_width 608 --input_height 608 --draw_threshold 0.001 --batch_size 1 --prec fp16-mix --device gcu
python3 main.py --frame topsinference --model ppyolo --model_path ./model/ppyolo_r50vd_dcn_2x_coco-608-op13-fp32-bs1.onnx --fp32_op Concat_64,Squeeze_146,Mul_154,Squeeze_156,Mul_176,NonMaxSuppression_0 --data_path ./data/COCO --input_width 608 --input_height 608 --draw_threshold 0.001 --batch_size 1 --prec fp16-mix --device gcu
可配置的参数包括:
--model_path
--fp32_op
--data_path
--input_width
--input_height
--draw_threshold
--batch_size
--prec
--device
可以使用
python3 main.py --frame topsinference --model ppyolo -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
ppyolo_mbv3_small_coco-320-op13-fp32-bs1.onnx
mAP_bbox: >=0.169
ppyolo_mbv3_large_coco-320-op13-fp32-bs1.onnx
mAP_bbox: >=0.236
ppyolo_tiny_650e_coco-320-op13-fp32-bs1.onnx
mAP_bbox: >=0.201
ppyolo_r18vd_coco-512-op13-fp32-bs1.onnx
mAP_bbox: >=0.280
ppyolo_r50vd_dcn_1x_coco-608-op13-fp32-bs1.onnx
mAP_bbox: >=0.425
ppyolo_r50vd_dcn_2x_coco-608-op13-fp32-bs1.onnx
mAP_bbox: >=0.430
ONNX模型文件导出说明¶
引用说明¶
2.2. rnnt¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/rnnt
,相关文档存放于docs/model_docs/topsinference_models/rnnt
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
安装
sox
库
apt install sox
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-librispeech
处理后的数据集应放置在data/LibriSpeech
预训练模型共3个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 rnnt_encoder-op13-fp32-N.onnx、rnnt_joint-op13-fp32-N.onnx 、rnnt_prediction-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame topsinference --model rnnt --model_path ./model/rnnt_encoder-op13-fp32-N.onnx,./model/rnnt_prediction-op13-fp32-N.onnx,./model/rnnt_joint-op13-fp32-N.onnx --data_path ./data/LibriSpeech/dev-clean-wav.json --max_length 1100 --config_path ./data/LibriSpeech/rnnt.toml
可配置的参数包括:
--model_path
--data_path
--config_path
可以使用
python3 main.py --frame topsinference --model rnnt -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
device |
precision |
wer |
---|---|---|
GCU |
fp32 |
7.46 |
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-rnnt
引用说明¶
2.3. topsinference-gpt2_en¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/gpt2_en
,相关文档存放于docs/model_docs/topsinference_models/gpt2_en
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型在wikitext数据集上进行,数据集在模型推理时会自动下载至data/wikitext
预训练模型共2个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 gpt2_small-huggingface-op13-fp32-seqN.onnx gpt2_small-huggingface-op13-fp32-seqN-nocache.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame topsinference --model gpt2_en \
--batch_size 1 \
--model_path model/gpt2_small-huggingface-op13-fp32-seqN.onnx
python3 main.py --frame topsinference --model gpt2_en \
--batch_size 1 \
--model_path model/gpt2_small-huggingface-op13-fp32-seqN-nocache.onnx
可配置的参数包括:
--model_path
--data_path
--batch_size
可以使用
python3 main.py --frame topsinference --model gpt2_en -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
gpt2_small-huggingface-op13-fp32-seqN-nocache.onnx:
device |
perplexicity |
---|---|
GCU |
29.37163 |
gpt2_small-huggingface-op13-fp32-seqN.onnx
device |
perplexicity |
---|---|
GCU |
29.37163 |
gpt-xl-op13-fp32-N.onnx
device |
perplexicity |
---|---|
GCU |
16.92029 |
ONNX模型文件导出说明¶
引用说明¶
2.4. topsinference-resnet-tv¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/transformer
,相关文档存放于docs/model_docs/topsinference_models/transformer
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型在transformer英文翻译为中文任务测试,在Tatoeba eng-zho数据集上进行
数据集会在脚本执行期间自动下载并被放置在./data/transformer
预训练模型共3个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 transformer_encoder-mt-huggingface-op13-fp32-N.onnx transformer_init_decoder-mt-huggingface-op13-fp32-N.onnx transformer_decoder-mt-huggingface-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame topsinference --model transformer-mt --model_path ./model/transformer_encoder-mt-huggingface-op13-fp32-N.onnx,./model/transformer_init_decoder-mt-huggingface-op13-fp32-N.onnx,./model/transformer_decoder-mt-huggingface-op13-fp32-N.onnx --data_path ./data/transformer --batch_size 1 --device gcu
可配置的参数包括:
--model_path
--data_path
--batch_size
--device
--num_beams
--prec
可以使用
python main.py --frame topsinference --model transformer -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
bleu: >=0.29250 and <=0.29450
ONNX模型文件导出说明¶
引用说明¶
2.5. topsinference-maskrcnn¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/mask_rcnn
,相关文档存放于docs/model_docs/topsinference_models/mask_rcnn
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共4个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-unexport_mask.onnx maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-unexport_mask.json maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-without_rescale.onnx maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-without_rescale.json maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.onnx maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.json maskrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.onnx maskrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.json
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
# maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-unexport_mask.onnx
python3 main.py --frame topsinference --model mask_rcnn-mmd --model_path ./model/maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-unexport_mask.onnx --fp32_op_path ./model/maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-unexport_mask.json --data_path ./data/COCO --prec fp16_mix --dynamic_input --scale 800 1344 --to_rgb --keep_ratio --post_mask --post_rescale
# maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-without_rescale.onnx
python3 main.py --frame topsinference --model mask_rcnn-mmd --model_path ./model/maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-without_rescale.onnx --fp32_op_path ./model/maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-without_rescale.json --data_path ./data/COCO --prec fp16_mix --pg_mode 3pg --scale 800 1216 --to_rgb --post_rescale
# maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.onnx
python3 main.py --frame topsinference --model mask_rcnn-mmd --model_path ./model/maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.onnx --fp32_op_path ./model/maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.json --data_path ./data/COCO --prec fp16_mix --dynamic_input --scale 800 1344 --to_rgb --keep_ratio
# maskrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.onnx
python3 main.py --frame topsinference --model mask_rcnn-mmd --model_path ./model/maskrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.onnx --fp32_op_path ./model/maskrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.json --data_path ./data/COCO --prec fp16_mix --scale 800 1216 --to_rgb --post_rescale
可配置的参数包括:
--model_path
--fp32_op_path
--data_path
--prec
--scale
--to_rgb
--post_mask
--post_rescale
可以使用
python3 main.py --frame topsinference --model mask_rcnn-mmd -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
dynamic_input |
precision |
mAP_bbox |
mAP_segm |
---|---|---|---|---|---|
maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-unexport_mask.onnx |
GCU |
True |
fp16_mix |
0.4085 |
0.3585 |
maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-without_rescale.onnx |
GCU |
False |
fp16_mix |
0.3805 |
0.3463 |
maskrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.onnx |
GCU |
True |
fp16_mix |
0.4085 |
0.3713 |
maskrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N-mmcv-with_rescale.onnx |
GCU |
False |
fp16_mix |
0.4161 |
0.3741 |
ONNX模型文件导出说明¶
引用说明¶
2.6. topsinference-fasterrcnn¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/faster_rcnn
,相关文档存放于docs/model_docs/topsinference_models/faster_rcnn
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共11个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N-topk_static.onnx fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N-topk_static.json fasterrcnn-resnet50_c4_1x_caffe-mmdetection-op13-fp32-N.onnx fasterrcnn-resnet50_c4_1x_caffe-mmdetection-op13-fp32-N.json fasterrcnn-resnet50_dc5_3x_caffe-mmdetection-op13-fp32-N.onnx fasterrcnn-resnet50_dc5_3x_caffe-mmdetection-op13-fp32-N.json fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N.onnx fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N.json fasterrcnn-resnet50_fpn_3x_caffe-mmdetection-op13-fp32-N.onnx fasterrcnn-resnet50_fpn_3x_caffe-mmdetection-op13-fp32-N.json fasterrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx fasterrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N.json fasterrcnn-resnet101_fpn_3x_caffe-mmdetection-op13-fp32-N.onnx fasterrcnn-resnet101_fpn_3x_caffe-mmdetection-op13-fp32-N.json fasterrcnn-resnet101_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx fasterrcnn-resnet101_fpn_3x_pytorch-mmdetection-op13-fp32-N.json fasterrcnn-resnext101_32x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx fasterrcnn-resnext101_32x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.json fasterrcnn-resnext101_32x8d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx fasterrcnn-resnext101_32x8d_fpn_3x_pytorch-mmdetection-op13-fp32-N.json fasterrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx fasterrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.json
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
# fasterrcnn-resnet50_c4_1x_caffe-mmdetection-op13-fp32-N.onnx
python3 main.py --frame topsinference --model faster_rcnn-mmd --model_path ./model/fasterrcnn-resnet50_c4_1x_caffe-mmdetection-op13-fp32-N.onnx --fp32_op_path ./model/fasterrcnn-resnet50_c4_1x_caffe-mmdetection-op13-fp32-N.json --data_path ./data --mean 103.530 116.280 123.675 --std 1.0 1.0 1.0 --dynamic_input --post_rescale --prec fp16_mix --scale 800 1344 --keep_ratio
# fasterrcnn-resnet50_dc5_3x_caffe-mmdetection-op13-fp32-N.onnx
python3 main.py --frame topsinference --model faster_rcnn-mmd --model_path ./model/fasterrcnn-resnet50_dc5_3x_caffe-mmdetection-op13-fp32-N.onnx --fp32_op_path ./model/fasterrcnn-resnet50_dc5_3x_caffe-mmdetection-op13-fp32-N.json --data_path ./data --mean 103.530 116.280 123.675 --std 1.0 1.0 1.0 --dynamic_input --post_rescale --prec fp16_mix --scale 800 1344 --keep_ratio
# fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N.onnx
python3 main.py --frame topsinference --model faster_rcnn-mmd --model_path ./model/fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N.onnx --fp32_op_path ./model/fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N.json --data_path ./data --dynamic_input --post_rescale --prec fp16_mix --scale 800 1344 --to_rgb --keep_ratio
# fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N-topk_static.onnx
python3 main.py --frame topsinference --model faster_rcnn-mmd --model_path ./model/fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N-topk_static.onnx --fp32_op_path ./model/fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N-topk_static.json --data_path ./data --dynamic_input --post_rescale --prec fp16_mix --scale 800 1344 --to_rgb --keep_ratio
# fasterrcnn-resnet50_fpn_3x_caffe-mmdetection-op13-fp32-N.onnx
python3 main.py --frame topsinference --model faster_rcnn-mmd --model_path ./model/fasterrcnn-resnet50_fpn_3x_caffe-mmdetection-op13-fp32-N.onnx --fp32_op_path ./model/fasterrcnn-resnet50_fpn_3x_caffe-mmdetection-op13-fp32-N.json --data_path ./data --mean 103.530 116.280 123.675 --std 1.0 1.0 1.0 --dynamic_input --post_rescale --prec fp16_mix --scale 800 1344 --keep_ratio
# fasterrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx
python3 main.py --frame topsinference --model faster_rcnn-mmd --model_path ./model/fasterrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx --fp32_op_path ./model/fasterrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N.json --data_path ./data --dynamic_input --post_rescale --prec fp16_mix --scale 800 1344 --to_rgb --keep_ratio
# fasterrcnn-resnet101_fpn_3x_caffe-mmdetection-op13-fp32-N.onnx
python3 main.py --frame topsinference --model faster_rcnn-mmd --model_path ./model/fasterrcnn-resnet101_fpn_3x_caffe-mmdetection-op13-fp32-N.onnx --fp32_op_path ./model/fasterrcnn-resnet101_fpn_3x_caffe-mmdetection-op13-fp32-N.json --data_path ./data --mean 103.530 116.280 123.675 --std 1.0 1.0 1.0 --dynamic_input --post_rescale --prec fp16_mix --scale 800 1344 --keep_ratio
# fasterrcnn-resnext101_32x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx
python3 main.py --frame topsinference --model faster_rcnn-mmd --model_path ./model/fasterrcnn-resnext101_32x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx --fp32_op_path ./model/fasterrcnn-resnext101_32x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.json --data_path ./data --post_rescale --prec fp16_mix --scale 800 1216 --to_rgb
# fasterrcnn-resnext101_32x8d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx
python3 main.py --frame topsinference --model faster_rcnn-mmd --model_path ./model/fasterrcnn-resnext101_32x8d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx --fp32_op_path ./model/fasterrcnn-resnext101_32x8d_fpn_3x_pytorch-mmdetection-op13-fp32-N.json --data_path ./data --mean 103.530 116.280 123.675 --std 57.375 57.120 58.395 --post_rescale --prec fp16_mix --scale 800 1216
# fasterrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx
python3 main.py --frame topsinference --model faster_rcnn-mmd --model_path ./model/fasterrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx --fp32_op_path ./model/fasterrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.json --data_path ./data --post_rescale --prec fp16_mix --scale 800 1216 --to_rgb
# fasterrcnn-resnet101_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx
python3 main.py --frame topsinference --model faster_rcnn-mmd --model_path ./model/fasterrcnn-resnet101_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx --fp32_op_path ./model/fasterrcnn-resnet101_fpn_3x_pytorch-mmdetection-op13-fp32-N.json --data_path ./data --dynamic_input --post_rescale --prec fp16_mix --scale 800 1344 --to_rgb --keep_ratio
可配置的参数包括:
--model_path
--fp32_op_path
--data_path
--prec
--scale
--to_rgb
--mean
--std
--keep_ratio
--post_rescale
可以使用
python3 main.py --frame topsinference --model faster_rcnn-mmd -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
precision |
dynamic_input |
mAP_bbox |
---|---|---|---|---|
fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N-topk_static.onnx |
GCU |
fp16_mix |
True |
0.3829 |
fasterrcnn-resnet101_fpn_3x_caffe-mmdetection-op13-fp32-N.onnx |
GCU |
fp16_mix |
True |
0.4178 |
fasterrcnn-resnet101_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx |
GCU |
fp16_mix |
True |
0.4170 |
fasterrcnn-resnet50_c4_1x_caffe-mmdetection-op13-fp32-N.onnx |
GCU |
fp16_mix |
True |
0.3563 |
fasterrcnn-resnet50_dc5_3x_caffe-mmdetection-op13-fp32-N.onnx |
GCU |
fp16_mix |
True |
0.3842 |
fasterrcnn-resnet50_fpn_2x_pytorch-mmdetection-op13-fp32-N.onnx |
GCU |
fp16_mix |
True |
0.3829 |
fasterrcnn-resnet50_fpn_3x_caffe-mmdetection-op13-fp32-N.onnx |
GCU |
fp16_mix |
True |
0.3975 |
fasterrcnn-resnet50_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx |
GCU |
fp16_mix |
True |
0.3998 |
fasterrcnn-resnext101_32x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx |
GCU |
fp16_mix |
False |
0.3975 |
fasterrcnn-resnext101_32x8d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx |
GCU |
fp16_mix |
False |
0.3940 |
fasterrcnn-resnext101_64x4d_fpn_3x_pytorch-mmdetection-op13-fp32-N.onnx |
GCU |
fp16_mix |
False |
0.4015 |
ONNX模型文件导出说明¶
引用说明¶
2.7. sam-prompt¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/sam_prompt
,相关文档存放于docs/model_docs/topsinference_models/sam_prompt
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-sam_prompt
处理后的数据集应放置在./data/SAM/prompt
预训练模型共3组,包含6个模型, 应放置在./model,如缺少模型文件,可联系销售工程师获取
sam-vit_b-encoder-meta-op13-fp32-N.onnx
sam-vit_b-encoder-meta-op13-fp32-N.json
sam-vit_b-decoder-prompt-meta-op13-fp32.onnx
sam-vit_b-decoder-prompt-meta-op13-fp32.json
sam-vit_h-encoder-meta-op13-fp32-N.onnx
sam-vit_h-encoder-meta-op13-fp32-N.weights
sam-vit_h-encoder-meta-op13-fp32-N.json
sam-vit_h-decoder-prompt-meta-op13-fp32.onnx
sam-vit_h-decoder-prompt-meta-op13-fp32.json
sam-vit_l-encoder-meta-op13-fp32-N.onnx
sam-vit_l-encoder-meta-op13-fp32-N.json
sam-vit_l-decoder-prompt-meta-op13-fp32.onnx
sam-vit_l-decoder-prompt-meta-op13-fp32.json
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
# sam-vit_b
python3 main.py --frame topsinference --model sam-prompt --encoder_model ./model/sam-vit_b-encoder-meta-op13-fp32-N.onnx --decoder_model ./model/sam-vit_b-decoder-prompt-meta-op13-fp32.onnx --encoder_fp32_op_path ./model/sam-vit_b-encoder-meta-op13-fp32-N.json --decoder_fp32_op_path ./model/sam-vit_b-decoder-prompt-meta-op13-fp32.json --data_path ./data/SAM/prompt/sam_vit_b --prec fp16_mix --post_mask
# sam-vit_h
python3 main.py --frame topsinference --model sam-prompt --encoder_model ./model/sam-vit_h-encoder-meta-op13-fp32-N.onnx --decoder_model ./model/sam-vit_h-decoder-prompt-meta-op13-fp32.onnx --encoder_fp32_op_path ./model/sam-vit_h-encoder-meta-op13-fp32-N.json --decoder_fp32_op_path ./model/sam-vit_h-decoder-prompt-meta-op13-fp32.json --data_path ./data/SAM/prompt/sam_vit_h --prec fp16_mix --post_mask
# sam-vit_l
python3 main.py --frame topsinference --model sam-prompt --encoder_model ./model/sam-vit_l-encoder-meta-op13-fp32-N.onnx --decoder_model ./model/sam-vit_l-decoder-prompt-meta-op13-fp32.onnx --encoder_fp32_op_path ./model/sam-vit_l-encoder-meta-op13-fp32-N.json --decoder_fp32_op_path ./model/sam-vit_l-decoder-prompt-meta-op13-fp32.json --data_path ./data/SAM/prompt/sam_vit_l --prec fp16_mix --post_mask
可配置的参数包括:
--encoder_model
--decoder_model
--encoder_fp32_op_path
--decoder_fp32_op_path
--data_path
--prec
--post_mask
可以使用
python3 main.py --frame topsinference --model sam-prompt -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
encoder_model |
decoder_model |
device |
precision |
post_mask |
mIoU |
---|---|---|---|---|---|
sam-vit_b-encoder-meta-op13-fp32-N.onnx |
sam-vit_b-decoder-prompt-meta-op13-fp32.onnx |
GCU |
fp16_mix |
True |
0.9691 |
sam-vit_h-encoder-meta-op13-fp32-N.onnx |
sam-vit_h-decoder-prompt-meta-op13-fp32.onnx |
GCU |
fp16_mix |
True |
0.9977 |
sam-vit_l-encoder-meta-op13-fp32-N.onnx |
sam-vit_l-decoder-prompt-meta-op13-fp32.onnx |
GCU |
fp16_mix |
True |
0.9966 |
ONNX模型文件导出说明¶
引用说明¶
2.8. topsinference-retinaface¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/retinaface
,相关文档存放于docs/model_docs/topsinference_models/retinaface
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-widerface
处理后的数据集应放置在 ./data/widerface
预训练模型共2个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 retinaface-mobilenetv1-pt-op13-fp32.onnx retinaface-rn50-pt-op13-fp32.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame topsinference --model retinaface --model_path model/retinaface-mobilenetv1-pt-op13-fp32.onnx --data_path ./data/widerface --batch_size 1 --version pytorch --conf_thres 0.02 --iou_thres 0.4 --prec fp16-mix
python3 main.py --frame topsinference --model retinaface --model_path model/retinaface-rn50-pt-op13-fp32.onnx --data_path ./data/widerface --batch_size 1 --version pytorch --conf_thres 0.02 --iou_thres 0.4 --prec fp16-mix
可配置的参数包括:
--model_path
--data_path
--batch_size
--version
--conf_thres
--iou_thres
--prec
可以使用
python3 main.py --frame topsinference --model retinaface -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
framework |
precision |
easy val ap |
medium val ap |
hard val ap |
---|---|---|---|---|---|---|
retinaface-mobilenetv1-pt-op13-fp32.onnx |
GCU |
topsinference |
fp16-mix |
91.08% |
89.40% |
84.27% |
retinaface-rn50-pt-op13-fp32.onnx |
GCU |
topsinference |
fp16-mix |
95.83% |
95.13% |
92.14% |
ONNX模型文件导出说明¶
引用说明¶
2.9. sam-automask¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/sam_automask
,相关文档存放于docs/model_docs/topsinference_models/sam_automask
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型在SA-1B部分数据集上进行,数据集准备详见附录:数据准备-sam_automask
处理后的数据集应放置在./data/SAM/automask
预训练模型共3组,包含6个模型, 应放置在./model,如缺少模型文件,可联系销售工程师获取
sam-vit_b-encoder-meta-op13-fp32-N.onnx
sam-vit_b-encoder-meta-op13-fp32-N.json
sam-vit_b-decoder-automask-meta-op13-fp32.onnx
sam-vit_b-decoder-automask-meta-op13-fp32.json
sam-vit_h-encoder-meta-op13-fp32-N.onnx
sam-vit_h-encoder-meta-op13-fp32-N.weights
sam-vit_h-encoder-meta-op13-fp32-N.json
sam-vit_h-decoder-automask-meta-op13-fp32.onnx
sam-vit_h-decoder-automask-meta-op13-fp32.json
sam-vit_l-encoder-meta-op13-fp32-N.onnx
sam-vit_l-encoder-meta-op13-fp32-N.json
sam-vit_l-decoder-automask-meta-op13-fp32.onnx
sam-vit_l-decoder-automask-meta-op13-fp32.json
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
# sam-vit_b
python3 main.py --frame topsinference --model sam-automask --encoder_model ./model/sam-vit_b-encoder-meta-op13-fp32-N.onnx --decoder_model ./model/sam-vit_b-decoder-automask-meta-op13-fp32.onnx --encoder_fp32_op_path ./model/sam-vit_b-encoder-meta-op13-fp32-N.json --decoder_fp32_op_path ./model/sam-vit_b-decoder-automask-meta-op13-fp32.json --data_path ./data/SAM/automask --prec fp16_mix --post_mask
# sam-vit_h
python3 main.py --frame topsinference --model sam-automask --encoder_model ./model/sam-vit_h-encoder-meta-op13-fp32-N.onnx --decoder_model ./model/sam-vit_h-decoder-automask-meta-op13-fp32.onnx --encoder_fp32_op_path ./model/sam-vit_h-encoder-meta-op13-fp32-N.json --decoder_fp32_op_path ./model/sam-vit_h-decoder-automask-meta-op13-fp32.json --data_path ./data/SAM/automask --prec fp16_mix --post_mask
# sam-vit_l
python3 main.py --frame topsinference --model sam-automask --encoder_model ./model/sam-vit_l-encoder-meta-op13-fp32-N.onnx --decoder_model ./model/sam-vit_l-decoder-automask-meta-op13-fp32.onnx --encoder_fp32_op_path ./model/sam-vit_l-encoder-meta-op13-fp32-N.json --decoder_fp32_op_path ./model/sam-vit_l-decoder-automask-meta-op13-fp32.json --data_path ./data/SAM/automask --prec fp16_mix --post_mask
可配置的参数包括:
--encoder_model
--decoder_model
--encoder_fp32_op_path
--decoder_fp32_op_path
--data_path
--prec
--post_mask
可以使用
python3 main.py --frame topsinference --model sam-automask -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
encoder_model |
decoder_model |
device |
precision |
post_mask |
mAP_bbox |
mAP_segm |
---|---|---|---|---|---|---|
sam-vit_b-encoder-meta-op13-fp32-N.onnx |
sam-vit_b-decoder-automask-meta-op13-fp32.onnx |
GCU |
fp16_mix |
True |
0.2750 |
0.2745 |
sam-vit_h-encoder-meta-op13-fp32-N.onnx |
sam-vit_h-decoder-automask-meta-op13-fp32.onnx |
GCU |
fp16_mix |
True |
0.3774 |
0.3816 |
sam-vit_l-encoder-meta-op13-fp32-N.onnx |
sam-vit_l-decoder-automask-meta-op13-fp32.onnx |
GCU |
fp16_mix |
True |
0.3731 |
0.3773 |
ONNX模型文件导出说明¶
引用说明¶
2.10. topsinference-retinanet¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/retinanet
,相关文档存放于docs/model_docs/topsinference_models/retinanet
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共2个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 retinanet-r101-mmdet-pt-op13-fp32.onnx retinanet-r50-mmdet-pt-op13-fp32.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame topsinference --model retinanet --model_path ./model/retinanet-r101-mmdet-pt-op13-fp32.onnx --data_path ./data/COCO --batch_size 1 --conf_thres 0.04 --version mmdet --prec fp16-mix
python3 main.py --frame topsinference --model retinanet --model_path ./model/retinanet-r50-mmdet-pt-op13-fp32.onnx --data_path ./data/COCO --batch_size 1 --conf_thres 0.04 --version mmdet --prec fp16-mix
可配置的参数包括:
--model_path
--data_path
--batch_size
--conf_thres
--version
--prec
可以使用
python3 main.py --frame topsinference --model retinanet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
precision |
conf thres |
mAP |
---|---|---|---|---|
retinanet-r50-mmdet-pt-op13-fp32.onnx |
GCU |
fp16-mix |
0.04 |
35.54% |
retinanet-r101-mmdet-pt-op13-fp32.onnx |
GCU |
fp16-mix |
0.04 |
37.45% |
ONNX模型文件导出说明¶
引用说明¶
2.11. topsinference-ssdlite_mobilenetv1¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/ssdlite_mobilenetv1
,相关文档存放于docs/model_docs/topsinference_models/ssdlite_mobilenetv1
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco
处理后的数据集应放置在./data
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 ssdlite_mobilenet_v1-paddle-op13-fp32.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame topsinference --model ssdlite_mobilenetv1 --model_path ./model/ssdlite_mobilenet_v1-paddle-op13-fp32.onnx --data_path ./data --batch_size 1 --prec fp16-mix
可配置的参数包括:
--model_path
--data_path
--batch_size
--prec
可以使用
python3 main.py --frame topsinference --model ssdlite_mobilenetv1 -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
mAP_bbox: >=0.230
ONNX模型文件导出说明¶
引用说明¶
2.12. topsinference-deeplabv3¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/deeplabv3
,相关文档存放于docs/model_docs/topsinference_models/deeplabv3
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-voc
处理后的数据集应放置在data
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 deeplabv3-resnet50-pt-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame topsinference --model deeplabv3 --model_path model/deeplabv3-resnet50-pt-op13-fp32-N.onnx --data_path data --batch_size 1 --version pt --prec fp16-mix
可配置的参数包括:
--model_path
--data_path
--batch_size
--version
--prec
可以使用
python3 main.py --frame topsinference --model deeplabv3 -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
mean iou: 0.706
ONNX模型文件导出说明¶
引用说明¶
2.13. topsinference-efficientnet¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/efficientnet
,相关文档存放于docs/model_docs/topsinference_models/efficientnet
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/val/
预训练模型共8个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 efficientnet_b0-torch-op13-fp32-N.onnx efficientnet_b1-torch-op13-fp32-N.onnx efficientnet_b2-torch-op13-fp32-N.onnx efficientnet_b3-torch-op13-fp32-N.onnx efficientnet_b4-torch-op13-fp32-N.onnx efficientnet_b5-torch-op13-fp32-N.onnx efficientnet_b6-torch-op13-fp32-N.onnx efficientnet_b7-torch-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame topsinference --model efficientnet-tv \
--data_path ./data/val/ \
--batch_size 1 \
--model_path ./model/efficientnet_b0-torch-op13-fp32-N.onnx \
--input_height=224 \
--input_width=224 \
--resize_size=256
python3 main.py --frame topsinference --model efficientnet-tv \
--data_path ./data/val/ \
--batch_size 1 \
--model_path ./model/efficientnet_b1-torch-op13-fp32-N.onnx \
--input_height=240 \
--input_width=240 \
--resize_size=256
python3 main.py --frame topsinference --model efficientnet-tv \
--data_path ./data/val/ \
--batch_size 1 \
--model_path ./model/efficientnet_b2-torch-op13-fp32-N.onnx \
--input_height=288 \
--input_width=288 \
--resize_size=288
python3 main.py --frame topsinference --model efficientnet-tv \
--data_path ./data/val/ \
--batch_size 1 \
--model_path ./model/efficientnet_b3-torch-op13-fp32-N.onnx \
--input_height=300 \
--input_width=300 \
--resize_size=320
python3 main.py --frame topsinference --model efficientnet-tv \
--data_path ./data/val/ \
--batch_size 1 \
--model_path ./model/efficientnet_b4-torch-op13-fp32-N.onnx \
--input_height=380 \
--input_width=380 \
--resize_size=384
python3 main.py --frame topsinference --model efficientnet-tv \
--data_path ./data/val/ \
--batch_size 1 \
--model_path ./model/efficientnet_b5-torch-op13-fp32-N.onnx \
--input_height=456 \
--input_width=456 \
--resize_size=456
python3 main.py --frame topsinference --model efficientnet-tv \
--data_path ./data/val/ \
--batch_size 1 \
--model_path ./model/efficientnet_b6-torch-op13-fp32-N.onnx \
--input_height=528 \
--input_width=528 \
--resize_size=528
python3 main.py --frame topsinference --model efficientnet-tv \
--data_path ./data/val/ \
--batch_size 1 \
--model_path ./model/efficientnet_b7-torch-op13-fp32-N.onnx \
--input_height=600 \
--input_width=600 \
--resize_size=600
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
可以使用
python3 main.py --frame topsinference --model efficientnet-tv -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
acc1 |
acc5 |
---|---|---|
efficientnet_b0-torch-op13-fp32-N.onnx |
0.77672 |
0.93584 |
efficientnet_b1-torch-op13-fp32-N.onnx |
0.78644 |
0.94228 |
efficientnet_b2-torch-op13-fp32-N.onnx |
0.80618 |
0.95292 |
efficientnet_b3-torch-op13-fp32-N.onnx |
0.82036 |
0.96044 |
efficientnet_b4-torch-op13-fp32-N.onnx |
0.83438 |
0.96604 |
efficientnet_b5-torch-op13-fp32-N.onnx |
0.83396 |
0.96622 |
efficientnet_b6-torch-op13-fp32-N.onnx |
0.84004 |
0.96916 |
efficientnet_b7-torch-op13-fp32-N.onnx |
0.84042 |
0.96886 |
ONNX模型文件导出说明¶
引用说明¶
2.14. topsinference-cascadercnn¶
模型说明¶
该模型代码存放于
inference_models/topsinference_models/cascade_rcnn
,相关文档存放于docs/model_docs/topsinference_models/cascade_rcnn
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了TopsInference.whl的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共5个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 cascade_mask_rcnn-resnet50_fpn_pytorch_3x-mmdetection-op13-fp32-N-unexport_mask-topk_static.onnx cascade_mask_rcnn-resnet50_fpn_pytorch_3x-mmdetection-op13-fp32-N-unexport_mask-topk_static.json cascade_rcnn-resnet50_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.onnx cascade_rcnn-resnet50_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.json cascade_rcnn-resnet101_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.onnx cascade_rcnn-resnet101_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.json cascade_rcnn-resnext101_32x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.onnx cascade_rcnn-resnext101_32x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.json cascade_rcnn-resnext101_64x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.onnx cascade_rcnn-resnext101_64x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.json
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
# cascade_mask_rcnn-resnet50_fpn_pytorch_3x-mmdetection-op13-fp32-N-unexport_mask-topk_static.onnx
python3 main.py --frame topsinference --model cascade_rcnn-mmd --model_path ./model/cascade_mask_rcnn-resnet50_fpn_pytorch_3x-mmdetection-op13-fp32-N-unexport_mask-topk_static.onnx --fp32_op_path ./model/cascade_mask_rcnn-resnet50_fpn_pytorch_3x-mmdetection-op13-fp32-N-unexport_mask-topk_static.json --data_path ./data/COCO --prec fp16_mix --dynamic_input --scale 800 1344 --to_rgb --keep_ratio --post_mask --post_rescale --batch_size 1
# cascade_rcnn-resnet50_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.onnx
python3 main.py --frame topsinference --model cascade_rcnn-mmd --model_path ./model/cascade_rcnn-resnet50_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.onnx --fp32_op_path ./model/cascade_rcnn-resnet50_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.json --data_path ./data/COCO --prec fp16_mix --dynamic_input --scale 800 1344 --to_rgb --keep_ratio --post_rescale --batch_size 1
# cascade_rcnn-resnet101_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.onnx
python3 main.py --frame topsinference --model cascade_rcnn-mmd --model_path ./model/cascade_rcnn-resnet101_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.onnx --fp32_op_path ./model/cascade_rcnn-resnet101_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.json --data_path ./data/COCO --prec fp16_mix --dynamic_input --scale 800 1344 --to_rgb --keep_ratio --post_rescale --batch_size 1
# cascade_rcnn-resnext101_32x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.onnx
python3 main.py --frame topsinference --model cascade_rcnn-mmd --model_path ./model/cascade_rcnn-resnext101_32x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.onnx --fp32_op_path ./model/cascade_rcnn-resnext101_32x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.json --data_path ./data/COCO --prec fp16_mix --scale 800 1216 --to_rgb --post_rescale --batch_size 1
# cascade_rcnn-resnext101_64x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.onnx
python3 main.py --frame topsinference --model cascade_rcnn-mmd --model_path ./model/cascade_rcnn-resnext101_64x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.onnx --fp32_op_path ./model/cascade_rcnn-resnext101_64x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.json --data_path ./data/COCO --prec fp16_mix --scale 800 1216 --to_rgb --post_rescale --batch_size 1
可配置的参数包括:
--model_path
--fp32_op_path
--data_path
--prec
--scale
--to_rgb
--post_mask
--post_rescale
--batch_size
可以使用
python3 main.py --frame topsinference --model cascade_rcnn-mmd -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
precision |
dynamic_input |
mAP_bbox |
mAP_segm |
---|---|---|---|---|---|
cascade_mask_rcnn-resnet50_fpn_pytorch_3x-mmdetection-op13-fp32-N-unexport_mask-topk_static.onnx |
GCU |
fp16_mix |
True |
0.4414 |
0.3759 |
cascade_rcnn-resnet50_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.onnx |
GCU |
fp16_mix |
True |
0.4086 |
– |
cascade_rcnn-resnet101_fpn_pytorch_20e-mmdetection-op13-fp32-N-topk_static.onnx |
GCU |
fp16_mix |
True |
0.4230 |
– |
cascade_rcnn-resnext101_32x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.onnx |
GCU |
fp16_mix |
False |
0.4145 |
– |
cascade_rcnn-resnext101_64x4d_fpn_20e-mmdetection-op13-fp32-N-topk_static.onnx |
GCU |
fp16_mix |
False |
0.4199 |
– |
ONNX模型文件导出说明¶
引用说明¶
2.15. onnx-yolov4-darknet¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/yolov4
,相关文档存放于docs/model_docs/onnx_models/yolov4
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 yolov4-leaky-608-darknet-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model yolov4-darknet --model_path ./model/yolov4-leaky-608-darknet-op13-fp32-N.onnx --data_path ./data/COCO --input_width 608 --input_height 608 --conf-thres 0.001 --iou-thres 0.6 --scale_x_y 1.05 --batch_size 1 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--conf-thres
--iou-thres
--scale_x_y
--batch_size
--device
可以使用
python main.py --frame onnx --model yolov4-darknet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
mAP_bbox: ">=0.485 and <=0.495"
ONNX模型文件导出说明¶
引用说明¶
2.16. onnx-vgg16-tf¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/vgg_tf
,相关文档存放于docs/model_docs/onnx_models/vgg_tf
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 vgg16-tfslim-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model vgg16-tf --model_path ./model/vgg16-tfslim-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--device
可以使用
python main.py --frame onnx --model vgg16-tf -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
acc1: >=0.708 and <=0.710
acc5: >=0.897 and <=0.899
ONNX模型文件导出说明¶
引用说明¶
2.17. onnx-resnet_tf¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/resnet_tf
,相关文档存放于docs/model_docs/onnx_models/resnet_tf
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 resnet_tf-mmcls-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model resnet-tf --model_path ./model/resnet50_v1-tfslim-op13-fp32-N.onnx --data_path ./data/val/ --batch_size 16 --device gcu
python3 main.py --frame onnx --model resnet-tf --model_path ./model/resnet50_v1-tfslim-op13-int8-N.onnx --data_path ./data/val/ --batch_size 1 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
可以使用
python3 main.py --frame onnx --model shufflenetv1-mmcls -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
acc1 |
acc5 |
---|---|---|---|
resnet50_v1-tfslim-op13-int8-N.onnx |
GCU |
0.7498 |
0.9218 |
resnet50_v1-tfslim-op13-fp32-N.onnx |
CPU |
0.75194 |
0.92216 |
ONNX模型文件导出说明¶
引用说明¶
2.18. onnx-densenet-caffe¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/densenet_caffe
,相关文档存放于docs/model_docs/onnx_models/densenet_caffe
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 densenet121-caffe2-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model densenet-caffe --model_path ./model/densenet121-caffe2-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --resize_size 256 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--resize_size
--device
可以使用
python3 main.py --frame onnx --model densenet-caffe -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
acc1: >=0.609
ONNX模型文件导出说明¶
引用说明¶
2.19. onnx-yolox¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/yolox
,相关文档存放于docs/model_docs/onnx_models/yolox
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共6个, 应放置在./model,如缺少模型文件,可联系销售工程师获取
yolox_nano-416-op13-fp32-N.onnx yolox_x-640-op13-fp32-N.onnx yolox_m-640-op13-fp32-N.onnx yolox_tiny-416-op13-fp32-N.onnx yolox_l-640-op13-fp32-N.onnx yolox_s-640-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model yolox --model_path ./model/yolox_nano-416-op13-fp32-N.onnx --data_path ./data/COCO --input_width 416 --input_height 416 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolox --model_path ./model/yolox_tiny-416-op13-fp32-N.onnx --data_path ./data/COCO --input_width 416 --input_height 416 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolox --model_path ./model/yolox_s-640-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolox --model_path ./model/yolox_m-640-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolox --model_path ./model/yolox_l-640-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.65 --batch_size 16 --device gcu
python3 main.py --frame onnx --model yolox --model_path ./model/yolox_x-640-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.65 --batch_size 16 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--conf-thres
--iou-thres
--batch_size
--device
可以使用
python main.py --frame onnx --model yolov4-darknet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
yolox_nano-416-op13-fp32-N.onnx "mAP_bbox": ">=0.259 and <= 0.261"
yolox_tiny-416-op13-fp32-N.onnx "mAP_bbox": ">=0.329 and <= 0.331"
yolox_s-640-op13-fp32-N.onnx "mAP_bbox": ">=0.405 and <= 0.407"
yolox_m-640-op13-fp32-N.onnx "mAP_bbox": ">=0.469 and <= 0.471"
yolox_l-640-op13-fp32-N.onnx "mAP_bbox": ">=0.498 and <= 0.500"
yolox_x-640-op13-fp32-N.onnx "mAP_bbox": ">=0.512 and <= 0.514"
ONNX模型文件导出说明¶
引用说明¶
2.20. onnx-yolov3-darknet¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/yolov3
,相关文档存放于docs/model_docs/onnx_models/yolov3
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 yolov3-608-darknet-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model yolov3-darknet --model_path ./model/yolov3-608-darknet-op13-fp32-N.onnx --data_path ./data/COCO --input_width 608 --input_height 608 --conf-thres 0.005 --iou-thres 0.45 --batch_size 1 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--conf-thres
--iou-thres
--batch_size
--device
可以使用
python3 main.py --frame onnx --model yolov3-darknet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
mAP_bbox: >=0.376 and <= 0.378
ONNX模型文件导出说明¶
引用说明¶
2.21. onnx-ghostnet¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/ghostnet
,相关文档存放于docs/model_docs/onnx_models/ghostnet
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共2个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 ghostnet-pt-op13-fp32-N.onnx ghostnet-tf-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model ghostnet --model_path ./model/ghostnet-pt-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --version pt --device cpu
python3 main.py --frame onnx --model ghostnet --mdoel_path ./model/ghostnet-tf-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --version tf --device cpu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--version
--device
可以使用
python3 main.py --frame onnx --model ghostnet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
ghostnet-pt-op13-fp32-N.onnx
acc1: 0.738
acc5: 0.915
ghostnet-tf-op13-fp32-N.onnx
acc1: 0.737
acc5: 0.912
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-ghostnet
引用说明¶
2.22. onnx-srresnet¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/srresnet
,相关文档存放于docs/model_docs/onnx_models/srresnet
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-div2k
处理后的数据集应放置在data
预训练模型共2个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 srresnet-pt-op13-fp32-N.onnx srresnet-tf-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model srresnet --model_path ./model/srresnet-pt-op13-fp32-N.onnx --data_path ./data --batch_size 1 --version pt --fixed_size --device cpu
python3 main.py --frame onnx --model srresnet --model_path ./model/srresnet-tf-op13-fp32-N.onnx --data_path ./data --batch_size 1 --version tf --fixed_size --device cpu
可配置的参数包括:
--model_path
--data_path
--batch_size
--version
--fixed_size
--device
可以使用
python main.py --frame onnx --model srresnet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
srresnet-pt-op13-fp32-N.onnx
psnr: 23.1300
ssim: 0.6504
srresnet-tf-op13-fp32-N.onnx
psnr: 21.8252
ssim: 0.5770
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-srresnet
引用说明¶
2.23. onnx-hcnet¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/hcnet
,相关文档存放于docs/model_docs/onnx_models/hcnet
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 hcnet32-pt-op13-fp32-N.onnx hcnet64-pt-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model hcnet --model_path ./model/hcnet32-pt-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --resize_size 256 --device cpu
python3 main.py --frame onnx --model hcnet --model_path ./model/hcnet64-pt-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --resize_size 256 --device cpu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--resize_size
--device
可以使用
python3 main.py --frame onnx --model hcnet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
precision |
acc1 |
---|---|---|---|
hcnet32-pt-op13-fp32-N.onnx |
CPU |
fp32 |
0.676 |
hcnet64-pt-op13-fp32-N.onnx |
CPU |
fp32 |
0.737 |
ONNX模型文件导出说明¶
引用说明¶
2.24. onnx-stgcn¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/stgcn
,相关文档存放于docs/model_docs/onnx_models/stgcn
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-stgcn
处理后的数据集应放置在 ./data
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 stgcn-author-op13-fp32-N-kinectic.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model stgcn --model_path ./model/stgcn-author-op13-fp32-N-kinectic.onnx --data_path ./data/Kinetics/kinetics-skeleton/ --batch_size 1 --device gcu
可配置的参数包括:
--model_path
--data_path
--batch_size
--device
可以使用
python3 main.py --frame onnx --model stgcn -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
acc1: >=0.315 and <=0.317
ONNX模型文件导出说明¶
引用说明¶
2.25. onnx-inception-tf¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/inception_tf
,相关文档存放于docs/model_docs/onnx_models/inception_tf
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 inception_v1-tf-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model inception-tf --model_path ./model/inception_v1-tf-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--device
可以使用
python3 main.py --frame onnx --model inception-tf -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
acc1 |
---|---|---|
inception_v1-tf-op13-fp32-N.onnx |
CPU |
0.69778 |
inception_v3-tf-op13-fp32-N.onnx |
CPU |
0.77896 |
inception_v4-tf-op13-fp32-N.onnx |
CPU |
0.8018 |
ONNX模型文件导出说明¶
引用说明¶
2.26. onnx-2dunet¶
模型说明¶
2dunet模型是一个图像分割网络。它提出了一种用于医学图像分割的网络模型和数据增强方法,有效利用标注数据来解决医学领域标注数据不足的问题,同时利用U型网络结构获取上下文信息和位置信息。
该模型代码存放于
inference_models/onnx_models/2dunet
,相关文档存放于docs/model_docs/onnx_models/2dunet
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-dagm2007
处理后的数据集应放置在./data/dagm2007/
预训练模型共1个,应放置在./model,如缺少模型文件,可联系销售工程师获取
2dunet-tf-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model 2dunet-tf --model_path ./model/2dunet-tf-op13-fp32-N.onnx --data_path ./data/dagm2007/ --input_width 512 --input_height 512 --batch_size 32 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--device
可以使用
python main.py --frame onnx --model 2dunet-tf -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
precision |
IOU-0.99 |
IOU-0.95 |
IOU-0.85 |
IOU-0.75 |
IOU-0.5 |
---|---|---|---|---|---|---|---|
2dunet-tf-op13-fp32-N.onnx |
GCU |
fp16_mix |
>=0.877 |
>=0.877 |
>=0.877 |
>=0.877 |
>=0.868 |
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-2dunet
引用说明¶
Guan S, Khan A A, Sikdar S, et al. Fully dense UNet for 2-D sparse photoacoustic tomography artifact removal[J]. IEEE journal of biomedical and health informatics, 2019, 24(2): 568-576.
2.27. onnx-conformer¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/conformer
,相关文档存放于docs/model_docs/onnx_models/conformer
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型用以实现语音识别(
Automatic Speech Recognition
)任务,数据集准备详见附录:数据准备-an4处理后的数据集应放置在./data
预训练模型共2个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 conformer_small-asr-nvidia-op13-fp32-N.onnx stt_en_conformer_ctc_small.nemo
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --model_path ./model/conformer_small-asr-nvidia-op13-fp32-N.onnx --data_path ./data/test_manifest.json --nemo_path ./model/stt_en_conformer_ctc_small.nemo --padding_mode False --batch_size 10 --max_padding 99200 --device cpu
可配置的参数包括:
--model_path
--data_path
--nemo_path
--padding_mode
--batch_size
--max_padding
--device
可以使用
python main.py --frame onnx --model conformer -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
wer: >=5.87
ONNX模型文件导出说明¶
引用说明¶
2.28. onnx-swin_transformer¶
模型说明¶
该模型是(补充模型介绍)
该模型代码存放于
inference_models/onnx_models/swin_transformer
,相关文档存放于docs/model_docs/onnx_models/swin_transformer
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/val/
预训练模型共4个,应放置在./model,如缺少模型文件,可联系销售工程师获取
swin_base_patch4_window12_384-ms-op13-fp32-N.onnx
swin_base_patch4_window7_224-ms-op13-fp32-N.onnx
swin_small_patch4_window7_224-ms-op13-fp32-N.onnx
swin_tiny_patch4_window7_224-ms-op13-fp32-N.onnx
步骤3:执行脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
swin_base_patch4_window12_384-ms-op13-fp32-N.onnx
python3 main.py --frame onnx --model swin_transformer --model_path ./model/swin_base_patch4_window12_384-ms-op13-fp32-N.onnx --data_path ./data/val/ --input_width 384 --input_height 384 --batch_size 16 --resize_size -1 --interpolation BICUBIC --device gcu
swin_base_patch4_window7_224-ms-op13-fp32-N.onnx
python3 main.py --frame onnx --model swin_transformer --model_path ./model/swin_base_patch4_window7_224-ms-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --interpolation BICUBIC --device gcu
swin_small_patch4_window7_224-ms-op13-fp32-N.onnx
python3 main.py --frame onnx --model swin_transformer --model_path ./model/swin_small_patch4_window7_224-ms-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --interpolation BICUBIC --device gcu
swin_tiny_patch4_window7_224-ms-op13-fp32-N.onnx
python3 main.py --frame onnx --model swin_transformer --model_path ./model/swin_tiny_patch4_window7_224-ms-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --interpolation BICUBIC --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--resize_size
--interpolation
--batch_size
--device
可以使用
python main.py --frame onnx --model swin_transformer -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
precision |
acc1 |
acc5 |
---|---|---|---|---|
swin_base_patch4_window12_384-ms-op13-fp32-N.onnx |
CPU |
fp32 |
0.8445 |
0.9695 |
swin_base_patch4_window7_224-ms-op13-fp32-N.onnx |
CPU |
fp32 |
0.8341 |
0.9644 |
swin_small_patch4_window7_224-ms-op13-fp32-N.onnx |
CPU |
fp32 |
0.8316 |
0.9622 |
swin_tiny_patch4_window7_224-ms-op13-fp32-N.onnx |
CPU |
fp32 |
0.8118 |
0.9551 |
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-swin_transformer
引用说明¶
Guan S, Khan A A, Sikdar S, et al. Fully dense UNet for 2-D sparse photoacoustic tomography artifact removal[J]. IEEE journal of biomedical and health informatics, 2019, 24(2): 568-576.
2.29. onnx-resnet¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/resnet
,相关文档存放于docs/model_docs/onnx_models/resnet
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
请按照inference_models/onnx_models/resnet/requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共4个, 应放置在./model,如缺少模型文件,可联系销售工程师获取
resnet18_v1.5-torchvision-op13-fp32-N.onnx
resnet34_v1.5-torchvision-op13-fp32-N.onnx
resnet50_v1.5-torchvision-op13-fp32-N.onnx
resnet50_v1.5-torchvision-op13-int8-gemm-perchannel-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model resnet-tv --model_path ./model/resnet50_v1.5-torchvision-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --resize_size 256 --device gcu
python3 main.py --frame onnx --model resnet-tv --model_path ./model/resnet50_v1.5-torchvision-op13-int8-gemm-perchannel-N.onnx --data_path ./data/val/ --batch_size 1 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--resize_size
--device
可以使用
python3 main.py --frame onnx --model resnet-tv -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
acc1 |
acc5 |
---|---|---|---|
resnet50_v1.5-torchvision-op13-fp32-N.onnx |
CPU |
0.7613 |
0.92862 |
resnet18_v1.5-torchvision-op13-fp32-N.onnx |
CPU |
0.69758 |
0.89078 |
resnet34_v1.5-torchvision-op13-fp32-N.onnx |
CPU |
0.73314 |
0.9142 |
resnet50_v1.5-torchvision-op13-int8-gemm-perchannel-N.onnx |
GCU |
0.75932 |
0.92828 |
ONNX模型文件导出说明¶
引用说明¶
2.30. onnx-yolov2-darknet¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/yolov4
,相关文档存放于docs/model_docs/onnx_models/yolov2
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 yolov2-608-darknet-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model yolov2-darknet --model_path ./model/yolov2-608-darknet-op13-fp32-N.onnx --data_path ./data/COCO --input_width 608 --input_height 608 --conf-thres 0.005 --iou-thres 0.45 --batch_size 16 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--conf-thres
--iou-thres
--batch_size
--device
可以使用
python main.py --frame onnx --model yolov2-darknet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
"mAP_bbox": ">=0.298 and <= 0.301"
ONNX模型文件导出说明¶
引用说明¶
2.31. onnx-densenet-tv¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/densenet_tv
,相关文档存放于docs/model_docs/onnx_models/densenet_tv
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 densenet121-torchvision-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model densenet-tv --model_path ./model/densenet121-torchvision-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --resize_size 256 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--resize_size
--device
可以使用
python3 main.py --frame onnx --model densenet-tv -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
acc1: >=0.744
ONNX模型文件导出说明¶
引用说明¶
2.32. onnx-ssd_resnet¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/ssd_resnet
,相关文档存放于docs/model_docs/onnx_models/ssd_resnet
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共2个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 ssd_resnet34_1200x1200_wo_nms-pt-op13-fp32-N.onnx ssd_resnet34_1200x1200_wo_nms_post-pt-op13-fp32.onnx
ssd_resnet34_1200x1200_wo_nms-tf-op13-fp32-N.onnx ssd_resnet34_1200x1200_wo_nms_post-tf-op13-fp32.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model ssd_resnet --model_path ./model/ssd_resnet34_1200x1200_wo_nms-pt-op13-fp32-N.onnx,./model/ssd_resnet34_1200x1200_wo_nms_post-pt-op13-fp32.onnx --framework pt --data_path ./data/COCO --batch_size 1 --device cpu
python3 main.py --frame onnx --model ssd_resnet --model_path ./model/ssd_resnet34_1200x1200_wo_nms-tf-op13-fp32-N.onnx,./model/ssd_resnet34_1200x1200_wo_nms_post-tf-op13-fp32.onnx --framework tf --data_path ./data/COCO --batch_size 1 --device cpu
可配置的参数包括:
--model_path
--data_path
--batch_size
--device
可以使用
python3 main.py --frame onnx --model ssd_resnet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
precision |
mAP_bbox |
---|---|---|---|
ssd_resnet34_1200x1200_wo_nms-pt-op13-fp32-N.onnx |
CPU |
fp32 |
0.1958 |
ssd_resnet34_1200x1200_wo_nms-tf-op13-fp32-N.onnx |
CPU |
fp32 |
0.223 |
ONNX模型文件导出说明¶
引用说明¶
2.33. onnx-wsdan¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/wsdan
,相关文档存放于docs/model_docs/onnx_models/wsdan
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-dfdc
处理后的数据集应放置在 ./data/dfdc
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 wsdan-xception-pt-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model wsdan --model_path model/wsdan-xception-pt-op13-fp32-N.onnx --data_path data/dfdc/dataset.pkl --batch_size 128 --device cpu
可配置的参数包括:
--model_path
--data_path
--batch_size
--device
可以使用
python main.py --frame onnx --model wsdan -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
acc: 0.976
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-wsdan
引用说明¶
2.34. onnx-shufflenet_v1¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/shufflenet_v1
,相关文档存放于docs/model_docs/onnx_models/shufflenet_v1
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 shufflenet_v1-mmcls-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model shufflenetv1-mmcls --model_path ./model/shufflenet_v1-mmcls-op13-fp32-N.onnx --data_path ./data/val/ --batch_size 1 --device cpu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--device
可以使用
python3 main.py --frame onnx --model shufflenetv1-mmcls -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
acc1 |
acc5 |
---|---|---|---|
shufflenet_v1-mmcls-op13-fp32-N.onnx |
CPU |
0.6813 |
0.87808 |
ONNX模型文件导出说明¶
引用说明¶
2.35. onnx-bert-qa¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/bert
,相关文档存放于docs/model_docs/onnx_models/bert_qa
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型在bert问答任务SQUAD v1.1测试数据集上进行,数据集准备详见附录:数据准备-bert_qa
处理后的数据集应放置在./data/bert_qa/
预训练模型共4个, 应放置在./model,如缺少模型文件,可联系销售工程师获取
bert_base-squad-nvidia-op13-fp32-N.onnx
bert_base-squad-google-op13-fp32-N.onnx
bert_large-squad-mlperf-op13-fp32-N.onnx
bert_base-squad-google-op13-int8-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
cpu
accuracynvidia
python3 main.py --frame onnx --model bert-qa --model_path ./model/bert_base-squad-nvidia-op13-fp32-N.onnx --predict_file ./data/bert_qa/dev-v1.1.json --batch_size 2 --device cpu --model_ver nvidia --vocab_file ./data/bert_qa/vocab.txt --eval_script ./data/bert_qa/evaluate-v1.1.py
google
python3 main.py --frame onnx --model bert-qa --model_path ./model/bert_base-squad-google-op13-fp32-N.onnx --predict_file ./data/bert_qa/dev-v1.1.json --batch_size 2 --device cpu --model_ver google --vocab_file ./data/bert_qa/vocab.txt --eval_script ./data/bert_qa/evaluate-v1.1.py
mlperf
python3 main.py --frame onnx --model bert-qa --model_path ./model/bert_large-squad-mlperf-op13-fp32-N.onnx --predict_file ./data/bert_qa/dev-v1.1.json --batch_size 2 --device cpu --model_ver mlperf --vocab_file ./data/bert_qa/vocab.txt --eval_script ./data/bert_qa/evaluate-v1.1.py
gcu
accuracynvidia
python3 main.py --frame onnx --model bert-qa --model_path ./model/bert_base-squad-nvidia-op13-fp32-N.onnx --predict_file ./data/bert_qa/dev-v1.1.json --batch_size 2 --device gcu --model_ver nvidia --vocab_file ./data/bert_qa/vocab.txt --eval_script ./data/bert_qa/evaluate-v1.1.py
google
python3 main.py --frame onnx --model bert-qa --model_path ./model/bert_base-squad-google-op13-fp32-N.onnx --predict_file ./data/bert_qa/dev-v1.1.json --batch_size 2 --device gcu --model_ver google --vocab_file ./data/bert_qa/vocab.txt --eval_script ./data/bert_qa/evaluate-v1.1.py
mlperf
python3 main.py --frame onnx --model bert-qa --model_path ./model/bert_large-squad-mlperf-op13-fp32-N.onnx --predict_file ./data/bert_qa/dev-v1.1.json --batch_size 2 --device gcu --model_ver mlperf --vocab_file ./data/bert_qa/vocab.txt --eval_script ./data/bert_qa/evaluate-v1.1.py
google int8
export ORT_TOPSINFERENCE_FP16_ENABLE=0
python3 main.py --frame onnx --model bert-qa --model_path ./model/bert_base-squad-google-op13-int8-N.onnx --predict_file ./data/bert_qa/dev-v1.1.json --batch_size 2 --device gcu --model_ver google --vocab_file ./data/bert_qa/vocab.txt --eval_script ./data/bert_qa/evaluate-v1.1.py
可配置的参数包括:
--model_path
--predict_file
--batch_size
--device
--max_seq_len
可以使用
python main.py --frame onnx --model bert-qa -h
获取相应的参考信息
模型文件与精度标准¶
nvidia模型的评价指标包括以下,
exact_match: >=81.43264 and <=81.63264,
f1: >=88.54774 and <=88.74774
google模型的评价指标包括以下,
exact_match: >=81.15872 and <=81.35872,
f1: >=88.55328 and <=88.75328
mlperf模型的评价指标包括以下,
exact_match: >=83.58968 and <=83.78968,
f1: >=90.77487 and <=90.97487
google int8模型的评价指标包括以下,
exact_match: >=78.499811 and <=78.699811,
f1: >=80.250047 and <=80.450047
ONNX模型文件导出说明¶
引用说明¶
2.36. onnx-bert-classification¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/bert_crf
,相关文档存放于docs/model_docs/onnx_models/bert_crf
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型在bert分类任务测试,数据集准备详见附录:数据准备-china-people-daily-ner-corpus
处理后的数据集应放置在./data/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 bert_base-bert4torch-without-crf-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model bert_crf --model_path ./model/bert_base-bert4torch-without-crf-op13-fp32-N.onnx --data_path ./data/china-people-daily-ner-corpus/example.dev --vocab_path model/bert_crf/vocab.txt --batch_size 64 --device gcu
可配置的参数包括:
--model_path
--data_path
--conf_file
--batch_size
--device
--max_seq_len
可以使用
python main.py --frame onnx --model bert_crf -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
"F1(token level)": ">=0.968 and <=0.970",
"Precision(token level)": ">=0.967 and <=0.969",
"Recall(token level)": ">=0.969 and <=0.971",
"F1(entity level)": ">=0.958 and <=0.960",
"Precision(entity level)": ">=0.958 and <=0.960",
"Recall(entity level)": ">=0.957 and <=0.959"
ONNX模型文件导出说明¶
引用说明¶
2.37. onnx-shufflenet_v2¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/shufflenet_v2
,相关文档存放于docs/model_docs/onnx_models/shufflenet_v2
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共4个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 shufflenet_v2-torchvision-op13-fp32-N-x0_5.onnx shufflenet_v2-torchvision-op13-fp32-N-x1_0.onnx shufflenet_v2-torchvision-op13-fp32-N-x1_5.onnx shufflenet_v2-torchvision-op13-fp32-N-x2_0.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model shufflenetv2-tv --model_path ./model/shufflenet_v2-torchvision-op13-fp32-N-x0_5.onnx --data_path ./data/val/ --batch_size 1 --device cpu
python3 main.py --frame onnx --model shufflenetv2-tv --model_path ./model/shufflenet_v2-torchvision-op13-fp32-N-x1_0.onnx --data_path ./data/val/ --batch_size 1 --device cpu
python3 main.py --frame onnx --model shufflenetv2-tv --model_path ./model/shufflenet_v2-torchvision-op13-fp32-N-x1_5.onnx --data_path ./data/val/ --batch_size 1 --device cpu --resize 232
python3 main.py --frame onnx --model shufflenetv2-tv --model_path ./model/shufflenet_v2-torchvision-op13-fp32-N-x2_0.onnx --data_path ./data/val/ --batch_size 1 --device cpu --resize 232
可配置的参数包括:
--model_path
--data_path
--batch_size
--device
可以使用
python3 main.py --frame onnx --model shufflenetv2-tv -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
acc1 |
acc5 |
---|---|---|---|
shufflenet_v2-torchvision-op13-fp32-N-x0_5.onnx |
CPU |
0.60552 |
0.81736 |
shufflenet_v2-torchvision-op13-fp32-N-x1_0.onnx |
CPU |
0.69356 |
0.88314 |
shufflenet_v2-torchvision-op13-fp32-N-x1_5.onnx |
CPU |
0.72984 |
0.91088 |
shufflenet_v2-torchvision-op13-fp32-N-x2_0.onnx |
CPU |
0.76228 |
0.93006 |
ONNX模型文件导出说明¶
引用说明¶
2.38. onnx-mobilenetv3-tv¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/mobilenet_v3
,相关文档存放于docs/model_docs/onnx_models/mobilenet_v3
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共2个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 mobilenet_v3_large-torchvision-op13-fp32-N.onnx mobilenet_v3_small-torchvision-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
mobilenet_v3_large-torchvision-op13-fp32-N.onnx
python3 main.py --frame onnx --model mobilenetv3-tv --model_path ./model/mobilenet_v3_large-torchvision-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 32 --device gcu
mobilenet_v3_small-torchvision-op13-fp32-N.onnx
python3 main.py --frame onnx --model mobilenetv3-tv --model_path ./model/mobilenet_v3_small-torchvision-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 32 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--device
可以使用
python main.py --frame onnx --model mobilenetv3-tv -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
mobilenet_v3_large-torchvision-op13-fp32-N.onnx
acc1: >=0.740
acc5: >=0.913
mobilenet_v3_small-torchvision-op13-fp32-N.onnx
acc1: >=0.676
acc5: >=0.874
ONNX模型文件导出说明¶
引用说明¶
2.39. onnx-ssd_mobilenetv2¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/ssd_mobilenetv2
,相关文档存放于docs/model_docs/onnx_models/ssd_mobilenetv2
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 ssd_mobilenet_v2_wo_post-tf-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model ssd_mobilenetv2 --model_path ./model/ssd_mobilenet_v2_wo_post-tf-op13-fp32-N.onnx --data_path ./data/COCO --batch_size 1 --device gcu
可配置的参数包括:
--model_path
--data_path
--batch_size
--device
可以使用
python3 main.py --frame onnx --model ssd_mobilenetv2 -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
mAP_bbox: >=0.194
ONNX模型文件导出说明¶
引用说明¶
2.40. onnx-mobilenetv2-tv¶
模型说明¶
mobilenetv2在mobilenetv1的基础上保持了简单性,同时又显著提高了精度,在移动应用的多图像分类和检测任务上达到了较优的效果。其主要贡献是一个新的层模块:具有线性瓶颈的倒置残差,该模块将输入的低维压缩表示首先扩展到高维并用轻量级深度卷积进行过滤。随后用线性卷积将特征投影回低维表示。
该模型代码存放于
inference_models/onnx_models/mobilenet_v2
,相关文档存放于docs/model_docs/onnx_models/mobilenet_v2
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/val
预训练模型共1个,应放置在./model,如缺少模型文件,可联系销售工程师获取
mobilenet_v2-torchvision-op13-fp32-N.onnx
步骤3:执行脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model mobilenetv2-tv --model_path ./model/mobilenet_v2-torchvision-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--device
可以使用
python main.py --frame onnx --model mobilenetv2-tv -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
precision |
acc1 |
acc5 |
---|---|---|---|---|
mobilenet_v2-torchvision-op13-fp32-N.onnx |
GCU |
fp16_mix |
>=0.718 |
>=0.902 |
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-mobilenet_v2
引用说明¶
Sandler M, Howard A, Zhu M, et al. Mobilenetv2: Inverted residuals and linear bottlenecks[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018: 4510-4520.
2.41. onnx-scaled_yolov4¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/scaled_yolov4
,相关文档存放于docs/model_docs/onnx_models/scaled_yolov4
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共4个, 应放置在./model,如缺少模型文件,可联系销售工程师获取
yolov4-csp-640-op13-fp32-N.onnx yolov4-p5-op13-fp32-N.onnx yolov4-p6-op13-fp32-N.onnx yolov4-p7-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model scaled_yolov4 --model_path ./model/yolov4-csp-640-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
python3 main.py --frame onnx --model scaled_yolov4 --model_path ./model/yolov4-p5-op13-fp32-N.onnx --data_path ./data/COCO --input_width 896 --input_height 896 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
python3 main.py --frame onnx --model scaled_yolov4 --model_path ./model/yolov4-p6-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.65 --batch_size 4 --device gcu
python3 main.py --frame onnx --model scaled_yolov4 --model_path ./model/yolov4-p7-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1536 --input_height 1536 --conf-thres 0.001 --iou-thres 0.65 --batch_size 4 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--conf-thres
--iou-thres
--batch_size
--device
可以使用
python main.py --frame onnx --model scaled_yolov4 -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
yolov4-csp-640-op13-fp32-N.onnx "mAP_bbox": ">=0.480 and <=0.482"
yolov4-p5-op13-fp32-N.onnx "mAP_bbox": ">=0.503 and <=0.505"
yolov4-p6-op13-fp32-N.onnx "mAP_bbox": ">=0.531 and <=0.533"
yolov4-p7-op13-fp32-N.onnx "mAP_bbox": ">=0.543 and <=0.545"
ONNX模型文件导出说明¶
引用说明¶
2.42. onnx-resnext-tv¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/resnext_tv
,相关文档存放于docs/model_docs/onnx_models/resnext_tv
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 resnext50_32x4d-torchvision-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model resnext-tv --model_path ./model/resnext50_32x4d-torchvision-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--device
可以使用
python3 main.py --frame onnx --model resnext-tv -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
acc1: >=0.77508 and <=0.77708
ONNX模型文件导出说明¶
引用说明¶
2.43. onnx-wavenet¶
模型说明¶
wavenet模型是一个图像分割网络。它提出了一种用于医学图像分割的网络模型和数据增强方法,有效利用标注数据来解决医学领域标注数据不足的问题,同时利用U型网络结构获取上下文信息和位置信息。
该模型代码存放于
inference_models/onnx_models/wavenet
,相关文档存放于docs/model_docs/onnx_models/wavenet
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-VCTK_Corpus
处理后的数据集应放置在./data/VCTK-Corpus/
预训练模型共1个,应放置在./model,如缺少模型文件,可联系销售工程师获取
wavenet-tf-op13-fp32.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
通过参数
--infer_type evaluate
执行评估,计算预测值与真实值的交叉熵损失
export ORT_TOPSINFERENCE_FP16_ENABLE=0
python3 main.py --frame onnx --model wavenet --model_path ./model/wavenet-tf-op13-fp32.onnx --data_path ./data/VCTK-Corpus/ --device gcu --infer_type evaluate
通过参数
--infer_type inference
执行推理生成音频,并通过参数--wav_seed
给定一段初始音频
export ORT_TOPSINFERENCE_FP16_ENABLE=0
python3 main.py --frame onnx --model wavenet --model_path ./model/wavenet-tf-op13-fp32.onnx --data_path ./data/VCTK-Corpus/ --device gcu --infer_type inference --wav_seed data/VCTK-Corpus/wav48/p225/p225_001.wav --samples 48000 --wav_out_path wav_out/p225_gen_gcu.wav --step 1
通过参数
--infer_type inference
执行推理生成音频,使用随机数生成
export ORT_TOPSINFERENCE_FP16_ENABLE=0
python3 main.py --frame onnx --model wavenet --model_path ./model/wavenet-tf-op13-fp32.onnx --data_path ./data/VCTK-Corpus/ --device gcu --infer_type inference --samples 48000 --wav_out_path wav_out/random_gen_gcu.wav --step 1
可配置的参数包括:
--model_path
--data_path
--device
--infer_type
--wav_seed
--samples
--wav_out_path
--step
可以使用
python main.py --frame onnx --model onnx-wavenet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
通过参数--infer_type evaluate
执行评估获得以下指标
model |
device |
precision |
cross_entropy |
---|---|---|---|
wavenet-tf-op13-fp32.onnx |
GCU |
fp32 |
<=2.87 |
通过参数--infer_type inference
执行推理生成音频
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-wavenet
引用说明¶
2.44. onnx-yolov5¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/yolov5
,相关文档存放于docs/model_docs/onnx_models/yolov5
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共21个, 应放置在./model,如缺少模型文件,可联系销售工程师获取
yolov5n-v6.0-640-op13-fp32-N.onnx yolov5n6-v6.0-1280-op13-fp32-N.onnx yolov5n-v6.2-op13-fp32-N.onnx yolov5n6-v6.2-op13-fp32-N.onnx yolov5s-v6.0-640-op13-fp32-N.onnx yolov5s6-v6.0-1280-op13-fp32-N.onnx yolov5s-v6.2-op13-fp32-N.onnx yolov5s6-v6.2-op13-fp32-N.onnx yolov5m-v6.0-640-op13-fp32-N.onnx yolov5m6-v6.0-1280-op13-fp32-N.onnx yolov5m-v6.2-op13-fp32-N.onnx yolov5m6-v6.2-op13-fp32-N.onnx yolov5l-v6.0-640-op13-fp32-N.onn yolov5l6-v6.0-1280-op13-fp32-N.onnx yolov5l-v6.2-op13-fp32-N.onnx yolov5l6-v6.2-op13-fp32-N.onnx yolov5x-v6.0-640-op13-int8-N.onnx yolov5x-v6.0-640-op13-fp32-N.onnx yolov5x6-v6.0-1280-op13-fp32-N.onnx yolov5x-v6.2-op13-fp32-N.onnx yolov5x6-v6.2-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,yolov5的各个onnx模型可以参考以下命令进行推理:
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5n-v6.0-640-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5n-v6.2-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5s-v6.0-640-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5s-v6.2-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5m-v6.0-640-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5m-v6.2-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5l-v6.0-640-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5l-v6.2-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5x-v6.0-640-op13-int8-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5x-v6.0-640-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5x-v6.2-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5n6-v6.0-1280-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5n6-v6.2-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5s6-v6.0-1280-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5s6-v6.2-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5m6-v6.0-1280-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5m6-v6.2-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5l6-v6.0-1280-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280--input_height 1280 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5l6-v6.2-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5x6-v6.0-1280-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280--input_height 1280--conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov5 --model_path ./model/yolov5x6-v6.2-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.6 --batch_size 32 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--conf-thres
--iou-thres
--batch_size
--device
可以使用
python main.py --frame onnx --model yolov5 -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
yolov5n-v6.0-640-op13-fp32-N.onnx "mAP_bbox": ">=0.282 and <=0.284"
yolov5n-v6.2-op13-fp32-N.onnx "mAP_bbox": ">=0.280 and <=0.282"
yolov5n6-v6.0-1280-op13-fp32-N.onnx "mAP_bbox": ">=0.337 and <=0.339"
yolov5n6-v6.2-op13-fp32-N.onnx "mAP_bbox": ">=0.357 and <=0.359"
yolov5s-v6.0-640-op13-fp32-N.onnx "mAP_bbox": ">=0.369 and <=0.371"
yolov5s-v6.2-op13-fp32-N.onnx "mAP_bbox": ">=0.373 and <=0.375"
yolov5s6-v6.0-1280-op13-fp32-N.onnx "mAP_bbox": ">=0.440 and <=0.442"
yolov5s6-v6.2-op13-fp32-N.onnx "mAP_bbox": ">=0.443 and <=0.445"
yolov5m-v6.0-640-op13-fp32-N.onnx "mAP_bbox": ">=0.446 and <=0.448"
yolov5m-v6.2-op13-fp32-N.onnx "mAP_bbox": ">=0.449 and <=0.451"
yolov5m6-v6.0-1280-op13-fp32-N.onnx "mAP_bbox": ">=0.504 and <=0.506"
yolov5m6-v6.2-op13-fp32-N.onnx "mAP_bbox": ">=0.507 and <=0.509"
yolov5l-v6.0-640-op13-fp32-N.onnx "mAP_bbox": ">=0.482 and <=0.484"
yolov5l-v6.2-op13-fp32-N.onnx "mAP_bbox": ">=0.485 and <=0.487"
yolov5l6-v6.0-1280-op13-fp32-N.onnx "mAP_bbox": ">=0.530 and <=0.532"
yolov5l6-v6.2-op13-fp32-N.onnx "mAP_bbox": ">=0.530 and <=0.532"
yolov5x-v6.0-640-op13-fp32-N.onnx "mAP_bbox": ">=0.501 and <=0.503"
yolov5x-v6.0-640-op13-int8-N.onnx "mAP_bbox": ">=0.489 and <=0.491"
yolov5x-v6.2-op13-fp32-N.onnx "mAP_bbox": ">=0.501 and <=0.503"
yolov5x6-v6.0-1280-op13-fp32-N.onnx "mAP_bbox": ">=0.541 and <=0.543"
yolov5x6-v6.2-op13-fp32-N.onnx "mAP_bbox": ">=0.543 and <=0.545"
ONNX模型文件导出说明¶
引用说明¶
2.45. onnx-ernie-pp¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/ernie
,相关文档存放于docs/model_docs/onnx_models/ernie
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-ernie
处理后的数据集应放置在./data/ernie/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 ernie_3.0_base_ch-classification-opset13-fp32-seqN.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model ernie-pp --model_path ./model/ernie_3.0_base_ch-classification-opset13-fp32-seqN.onnx --data_path ./data/ernie --batch_size 1 --device gcu
可配置的参数包括:
--model_path
--data_path
--batch_size
--device
--max_seq_len
可以使用
python main.py --frame onnx --model ernie-pp -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
acc: >=0.88789 and <=0.88989
ONNX模型文件导出说明¶
引用说明¶
2.46. onnx-facenet¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/facenet
,相关文档存放于docs/model_docs/onnx_models/facenet
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-lfw
处理后的数据集应放置在 ./data/lfw/
预训练模型共2个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 facenet-vggface-op13-fp32-N.onnx facenet-inceptionv1-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model facenet --model_path ./model/facenet-vggface-op13-fp32-N.onnx --data_path ./data/lfw --batch_size 128 --device cpu
python3 main.py --frame onnx --model facenet --model_path ./model/facenet-inceptionv1-op13-fp32-N.onnx --data_path ./data/lfw --batch_size 128 --device cpu
可配置的参数包括:
--model_path
--data_path
--batch_size
--device
可以使用
python main.py --frame onnx --model facenet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
facenet-vggface-op13-fp32-N.onnx
acc: 0.995
facenet-inceptionv1-op13-fp32-N.onnx
acc: 0.990
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-facenet
引用说明¶
2.47. onnx-deeplabv3¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/deeplabv3
,相关文档存放于docs/model_docs/onnx_models/deeplabv3
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-voc
处理后的数据集应放置在data
预训练模型共5个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 deeplabv3-mobilenetv3-pt-op13-fp32-N.onnx deeplabv3-resnet50-pt-op13-fp32-N.onnx deeplabv3-resnet101-pt-op13-fp32-N.onnx deeplabv3-mobilenetv2-tf-op13-fp32.onnx deeplabv3-xception-tf-op13-fp32.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model deeplabv3 --model_path model/deeplabv3-mobilenetv3-pt-op13-fp32-N.onnx --data_path data --batch_size 4 --version pt --fixed_size --device cpu
python3 main.py --frame onnx --model deeplabv3 --model_path model/deeplabv3-resnet50-pt-op13-fp32-N.onnx --data_path data --batch_size 4 --version pt --fixed_size --device cpu
python3 main.py --frame onnx --model deeplabv3 --model_path model/deeplabv3-resnet101-pt-op13-fp32-N.onnx --data_path data --batch_size 4 --version pt --fixed_size --device cpu
python3 main.py --frame onnx --model deeplabv3 --model_path model/deeplabv3-mobilenetv2-tf-op13-fp32.onnx --data_path data --batch_size 1 --version tf --fixed_size --device cpu
python3 main.py --frame onnx --model deeplabv3 --model_path model/deeplabv3-xception-tf-op13-fp32.onnx --data_path data --batch_size 1 --version tf --fixed_size --device cpu
可配置的参数包括:
--model_path
--data_path
--batch_size
--version
--fixed_size
--device
可以使用
python main.py --frame onnx --model deeplabv3 -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
deeplabv3-mobilenetv3-pt-op13-fp32-N.onnx
mean iou: 0.667731
deeplabv3-resnet50-pt-op13-fp32-N.onnx
mean iou: 0.740166
deeplabv3-resnet101-pt-op13-fp32-N.onnx
mean iou: 0.747849
deeplabv3-mobilenetv2-tf-op13-fp32.onnx
mean iou: 0.670550
deeplabv3-xception-tf-op13-fp32.onnx
mean iou: 0.751357
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-deeplabv3
引用说明¶
2.48. onnx-mobilenetv1-tf¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/mobilenet_v1
,相关文档存放于docs/model_docs/onnx_models/mobilenet_v1
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 mobilenet_v1-tf-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model mobilenetv1-tf --model_path ./model/mobilenet_v1-tf-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 32 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--device
可以使用
python main.py --frame onnx --model mobilenetv1-tf -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
acc1: >=0.712
acc5: >=0.898
ONNX模型文件导出说明¶
引用说明¶
2.49. onnx-minigo¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/minigo
,相关文档存放于docs/model_docs/onnx_models/minigo
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-minigo
处理后的数据集应放置在data
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 minigo-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model minigo --model_path model/minigo-op13-fp32-N.onnx --data_path data/data --batch_size 1 --device cpu
可配置的参数包括:
--model_path
--data_path
--batch_size
--device
可以使用
python3 main.py --frame onnx --model minigo -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
acc1: 0.751
acc3: 0.908
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-minigo
引用说明¶
2.50. onnx-vgg16-tv¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/vgg
,相关文档存放于docs/model_docs/onnx_models/vgg
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 vgg16-torchvision-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model vgg16-tv --model_path ./model/vgg16-torchvision-op13-fp32-N.onnx --data_path ./data/val/ --input_width 224 --input_height 224 --batch_size 16 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--device
可以使用
python main.py --frame onnx --model vgg16-tv -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
acc1: >=0.714 and <=0.716
acc5: >=0.902 and <=0.904
ONNX模型文件导出说明¶
引用说明¶
2.51. onnx-timesformer¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/timesformer
,相关文档存放于docs/model_docs/onnx_models/timesformer
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-kinetics400
处理后的数据集应放置在 ./data/kinetics400
预训练模型共3个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 timesformer-divst-pt-op13-fp32.onnx timesformer-jointst-pt-op13-fp32.onnx timesformer-spaceonly-pt-op13-fp32.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model timesformer --model_path ./model/timesformer-divst-pt-op13-fp32.onnx --data_path ./data/kinetics400 --version divst --device cpu
python3 main.py --frame onnx --model timesformer --model_path ./model/timesformer-jointst-pt-op13-fp32.onnx --data_path ./data/kinetics400 --version jointst --device cpu
python3 main.py --frame onnx --model timesformer --model_path ./model/timesformer-spaceonly-pt-op13-fp32.onnx --data_path ./data/kinetics400 --version spaceonly --device cpu
可配置的参数包括:
--model_path
--data_path
--version
--device
可以使用
python main.py --frame onnx --model timesformer -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
timesformer-divst-pt-op13-fp32.onnx
acc1: 0.7598
acc5: 0.9236
timesformer-jointst-pt-op13-fp32.onnx
acc1: 0.7523
acc5: 0.9221
timesformer-spaceonly-pt-op13-fp32.onnx
acc1: 0.7521
acc5: 0.9205
ONNX模型文件导出说明¶
当前文档提供的模型为基于开源数据集导出。如果根据自身场景训练完成后,ONNX模型的导出方式参考附录:ONNX导出说明-timesformer
引用说明¶
2.52. onnx-regnet¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/regnet
,相关文档存放于docs/model_docs/onnx_models/regnet
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
请按照inference_models/onnx_models/resnet/requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-imagenet
处理后的数据集应放置在./data/
预训练模型共4个, 应放置在./model,如缺少模型文件,可联系销售工程师获取
RegNetY-8.0GF-op13-fp32-N.onnx
RegNetX-8.0GF-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model regnet --model_path ./model/RegNetY-8.0GF-op13-fp32-N.onnx --data_path ./data/val/ --input_width 256 --input_height 256 --resize_size 256 --batch_size 16 --device gcu
python3 main.py --frame onnx --model regnet --model_path ./model/RegNetX-8.0GF-op13-fp32-N.onnx --data_path ./data/val/ --input_width 256 --input_height 256 --resize_size 256 --batch_size 16 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--batch_size
--resize_size
--device
可以使用
python3 main.py --frame onnx --model regnet -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
RegNetY-8.0GF-op13-fp32-N.onnx: "acc1": ">=0.798 and <=0.800", "acc5": ">=0.948 and <=0.950" RegNetX-8.0GF-op13-fp32-N.onnx: "acc1": ">=0.791 and <=0.793", "acc5": ">=0.944 and <=0.946"
ONNX模型文件导出说明¶
引用说明¶
2.53. onnx-arcface¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/arcface
,相关文档存放于docs/model_docs/onnx_models/arcface
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-MS1M_ArcFace
处理后的数据集应放置在./data
预训练模型共1个, 应放置在./model,如缺少模型文件,可联系销售工程师获取 resnet100-onnxmodelzoo-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model arcface --model_path=./model/resnet100-onnxmodelzoo-op13-fp32-N.onnx --data_path=./data --target lfw --batch_size 128 --device cpu
python3 main.py --frame onnx --model arcface --model_path=./model/resnet100-onnxmodelzoo-op13-fp32-N.onnx --data_path=./data --target cfp_ff --batch_size 128 --device cpu
python3 main.py --frame onnx --model arcface --model_path=./model/resnet100-onnxmodelzoo-op13-fp32-N.onnx --data_path=./data --target cfp_fp --batch_size 128 --device cpu
python3 main.py --frame onnx --model arcface --model_path=./model/resnet100-onnxmodelzoo-op13-fp32-N.onnx --data_path=./data --target agedb_30 --batch_size 128 --device cpu
可配置的参数包括:
--model_path
--data_path
--target
--batch_size
--device
可以使用
python3 main.py --frame onnx --model arcface -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
model |
device |
precision |
lfw |
cfp_ff |
cfp_fp |
agedb_30 |
---|---|---|---|---|---|---|
resnet100-onnxmodelzoo-op13-fp32-N.onnx |
CPU |
fp32 |
0.998±0.003 |
0.998±0.003 |
0.941±0.011 |
0.979±0.007 |
ONNX模型文件导出说明¶
引用说明¶
2.54. onnx-yolov7¶
模型说明¶
该模型代码存放于
inference_models/onnx_models/yolov7
,相关文档存放于docs/model_docs/onnx_models/yolov7
。该代码和文档会随TopsRider Sample包给到用户使用。
使用步骤¶
步骤1:安装依赖¶
安装环境:安装过程请参考《TopsRider软件栈安装手册》,TopsRider提供了tops-inference.deb、onnxruntime-gcu的安装包。完成TopsRider软件栈安装,即完成推理所需要基础环境的安装。
如代码目录下存在requirements.txt文件,请按照requirements.txt中所示下载相应的依赖库
步骤2:准备数据集和预训练模型¶
模型数据集准备详见附录:数据准备-coco2017
处理后的数据集应放置在./data/COCO
预训练模型共6个, 应放置在./model,如缺少模型文件,可联系销售工程师获取
yolov7-op13-fp32-N.onnx yolov7-x-op13-fp32-N.onnx yolov7-d6-op13-fp32-N.onnx yolov7-e6-op13-fp32-N.onnx yolov7-e6e-op13-fp32-N.onnx yolov7-w6-op13-fp32-N.onnx
步骤3:执行精度验证脚本¶
每一个模型我们都提供了精度验证脚本,帮助用户确认精度和CPU对齐。在确认依赖全部安装完成,数据集和预训练模型下载并存放在期望位置后,可以使用以下命令执行模型
python3 main.py --frame onnx --model yolov7 --model_path ./model/yolov7-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov7 --model_path ./model/yolov7-x-op13-fp32-N.onnx --data_path ./data/COCO --input_width 640 --input_height 640 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov7 --model_path ./model/yolov7-w6-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov7 --model_path ./model/yolov7-d6-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov7 --model_path ./model/yolov7-e6-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
python3 main.py --frame onnx --model yolov7 --model_path ./model/yolov7-e6e-op13-fp32-N.onnx --data_path ./data/COCO --input_width 1280 --input_height 1280 --conf-thres 0.001 --iou-thres 0.65 --batch_size 32 --device gcu
可配置的参数包括:
--model_path
--data_path
--input_width
--input_height
--conf-thres
--iou-thres
--batch_size
--device
可以使用
python main.py --frame onnx --model yolov7 -h
获取相应的参考信息
模型文件与精度标准¶
该模型的评价指标包括以下:
yolov7-op13-fp32-N.onnx "mAP_bbox": ">=0.508 and <=0.510"
yolov7-x-op13-fp32-N.onnx "mAP_bbox": ">=0.525 and <=0.527"
yolov7-d6-op13-fp32-N.onnx "mAP_bbox": ">=0.559 and <=0.561"
yolov7-e6-op13-fp32-N.onnx "mAP_bbox": ">=0.556 and <=0.558"
yolov7-e6e-op13-fp32-N.onnx "mAP_bbox": ">=0.564 and <=0.566"
yolov7-w6-op13-fp32-N.onnx "mAP_bbox": ">=0.542 and <=0.544"