OE版本:2.2.3
我看到在PTQ中的04_inference.sh脚本调用的det_inference.py中使用了HB_ONNXRuntime来推理quantized或者origin模型,可以顺利推理出较为准确的结果。但为什么推理model_zoo中的原始onnx模型的结果就很差呢,以yolov5为例,在04_inference.sh脚本中的origin模型路径改为model_zoo中YOLOV5s.onnx,推理结果如下-
OE版本:2.2.3
我看到在PTQ中的04_inference.sh脚本调用的det_inference.py中使用了HB_ONNXRuntime来推理quantized或者origin模型,可以顺利推理出较为准确的结果。但为什么推理model_zoo中的原始onnx模型的结果就很差呢,以yolov5为例,在04_inference.sh脚本中的origin模型路径改为model_zoo中YOLOV5s.onnx,推理结果如下-
感谢您使用地平线芯片算法工具链,最近我们在收集大家的满意度反馈,欢迎您填写问卷,详细情况可见:https://developer.horizon.ai/forumDetail/146177053698464782
您好,quantized_onnx和original_onnx是插入了预处理节点的onnx模型,model_zoo中的原始onnx模型,他们的模型结构不一样哈,您可以通过onnx可视化看一下。
那请问应该如何调整呢,怎么使用HB_ONNXRuntime来验证原始onnx呢
ok,填了
可以看一下这篇文章的1.1节:https://developer.horizon.ai/forumDetail/71036815603174578