1.芯片:J3
2.OE版本:XJ3_OE_1.11.4
3.问题定位:板端部署
4.问题具体描述:在板端进行模型推理时,若想对输入模型的batch size设置不同值,则模型转换过程中yaml配置文件–参数input_batch必须设置相应值吗?在评测工具ai_benchmark中,怎么设置模型预测时的batch size值?
1.芯片:J3
2.OE版本:XJ3_OE_1.11.4
3.问题定位:板端部署
4.问题具体描述:在板端进行模型推理时,若想对输入模型的batch size设置不同值,则模型转换过程中yaml配置文件–参数input_batch必须设置相应值吗?在评测工具ai_benchmark中,怎么设置模型预测时的batch size值?
感谢您使用地平线芯片算法工具链,最近我们在收集大家的满意度反馈,欢迎您填写问卷,详细情况可见:https://developer.horizon.ai/forumDetail/146177053698464782
您好,想对输入模型的batch size设置不同值,是需要模型转换时在yaml配置文件中配置input_batch的,设置为相应值的。
ai_benchmark没有设置batch size的,都是batch size=1的,评测其它batch size的模型性能,可以在模型编译完成后,使用hrt_model_exec工具。-
另外,XJ3新版工具链OE1.15.2已发布,在遇到问题时,欢迎使用新版工具链进行尝试哈~版本发布链接可见:https://developer.horizon.ai/forumDetail/136488103547258769
好的,非常感谢!
另外,运行ai_benchmark中 sh fps.sh 脚本,命令行一直在刷新下图信息,似乎陷入死循环,请问这是什么原因呢?和OE包的版本有关系吗?
好的,谢谢