1.芯片型号:J5
2.天工开物开发包OpenExplorer版本:J5_OE_1.1.57
3.问题定位:模型导出onnx文件报错
4.问题具体描述:你好,我在执行 python3 tools/export_onnx.py --config /bev/bev_mt_lss_efficientnetb0_nuscenes.py时,提示placeholder类型不支持(之前版本都支持),新版本想导出bev_mt_lss模型onnx文件要如何导出?谢谢。
1.芯片型号:J5
2.天工开物开发包OpenExplorer版本:J5_OE_1.1.57
3.问题定位:模型导出onnx文件报错
4.问题具体描述:你好,我在执行 python3 tools/export_onnx.py --config /bev/bev_mt_lss_efficientnetb0_nuscenes.py时,提示placeholder类型不支持(之前版本都支持),新版本想导出bev_mt_lss模型onnx文件要如何导出?谢谢。
你好,导出bev的onnx的时候需要把config文件中的deploy_inputs修改为:
deploy_inputs = { “img”: torch.randn((6,) + data_shape),-
“points”: torch.rand(10, 128, 128, 2),-
“points_depth”: torch.rand(10, 128, 128, 2) }
因为placeholder需要输入 没有输入会报错 可以固定住shape
谢谢,导出onnx文件了。但是编译生成hbm文件出现了问题,模型输出和之前一样,模型输入变为了:
input[1]:
name: arg0[points]
valid_shape: (10,128,128,2)
aligned_shape: (10,128,128,8)
tensor_layout: HB_DNN_LAYOUT_NCHW
input[2]:
name: arg0[points_depth]
valid_shape: (10,128,128,2)
aligned_shape: (10,128,128,8)
tensor_layout: HB_DNN_LAYOUT_NCHW
张量layout应该是变成HB_DNN_LAYOUT_NHWC才对吧?生成的hbm文件在J5上单核FPS只有73左右,也比之前下降了很多。有什么需要再修改的吗?
你好,请问你是使用的compile_perf.py脚本编译的吗
是的,用的compile_perf.py脚本编译。
请问在导出onnx的时候修改了deploy_inputs,使用compile_perf.py编译的时候改回来了吗
解决了,非常感谢。
不客气哈,为了给您提供更好的服务,希望您能抽出3分钟左右的时间,将您在使用工具链期间的感受和建议告诉我们,您的宝贵意见对我们很重要,非常感谢!-
问卷链接:地平线算法工具链使用满意度反馈