convert_fx之后模型推理错误

quantized_model = convert_fx(calib_model)

使用calib_model进行推理的结果是对的

使用quantized_model推理的结果错误,降低置信度时呈现如附件所示错误,请问有遇到过类似情况没有,有什么建议吗?谢谢

捕获.GIF

你好,如果quantized_model比calib_model的精度差距较大的话,那可能是量化引起的误差,推荐使用plugin中的分析工具进行精度debug。手册链接:https://developer.horizon.cc/api/v1/fileData/horizon\_j5\_open\_explorer\_cn\_doc/plugin/source/user\_guide/debug\_tools.html

RuntimeError: model_profiler in horizon_plugin_profiler 1.9.1 cannot run with horizon_plugin_pytorch 1.9.1+cu116.torch1130. Please update horizon_plugin_pytorch. 使用的1.62版本的两个包 回报如上冲突

其他版本oe包没有horizon_plugin_profiler的安装包 是不是有其他库调试

你好,麻烦从from horizon_plugin_profiler.model_profiler import model_profiler导入工具,看看是否报错