bev_mt_lss模型导出onnx文件报错:received an input of unsupported type: placeholder

1.芯片型号:J5

2.天工开物开发包OpenExplorer版本:J5_OE_1.1.57

3.问题定位:模型导出onnx文件报错

4.问题具体描述:你好,我在执行 python3 tools/export_onnx.py --config /bev/bev_mt_lss_efficientnetb0_nuscenes.py时,提示placeholder类型不支持(之前版本都支持),新版本想导出bev_mt_lss模型onnx文件要如何导出?谢谢。

你好,导出bev的onnx的时候需要把config文件中的deploy_inputs修改为:

deploy_inputs = { “img”: torch.randn((6,) + data_shape),-
“points”: torch.rand(10, 128, 128, 2),-
“points_depth”: torch.rand(10, 128, 128, 2) }

因为placeholder需要输入 没有输入会报错 可以固定住shape

谢谢,导出onnx文件了。但是编译生成hbm文件出现了问题,模型输出和之前一样,模型输入变为了:

input[1]:

name: arg0[points]

valid_shape: (10,128,128,2)

aligned_shape: (10,128,128,8)

tensor_layout: HB_DNN_LAYOUT_NCHW

input[2]:

name: arg0[points_depth]

valid_shape: (10,128,128,2)

aligned_shape: (10,128,128,8)

tensor_layout: HB_DNN_LAYOUT_NCHW

张量layout应该是变成HB_DNN_LAYOUT_NHWC才对吧?生成的hbm文件在J5上单核FPS只有73左右,也比之前下降了很多。有什么需要再修改的吗?

你好,请问你是使用的compile_perf.py脚本编译的吗

是的,用的compile_perf.py脚本编译。

请问在导出onnx的时候修改了deploy_inputs,使用compile_perf.py编译的时候改回来了吗

解决了,非常感谢。

不客气哈,为了给您提供更好的服务,希望您能抽出3分钟左右的时间,将您在使用工具链期间的感受和建议告诉我们,您的宝贵意见对我们很重要,非常感谢!-
问卷链接:地平线算法工具链使用满意度反馈