1.在x86 docker中使用oe包中的yolov5x推理一张图片,hbDNNWaitTaskDone(task_handle, 0)需要几分钟才能退出,结果是对的,但为什么需要等待这么长时间,上板之后会这样么?
2.我现在可以推理一张图片,如果要上板实时推理,请问程序实现一般是什么思路,相机的数据一般怎么考虑进模型,还请各位朋友指点一下!
1.芯片型号:J5
2.天工开物开发包OpenExplorer版本:docker_openexplorer_centos_7_j5_v1.1.33
3.问题定位:板端部署
yolov5x 挺大的,X86 模拟器跑就是会比较慢
颜值即正义
3
1.请问您是怎么样实现在x86上推理yolov5x的呢,是基于horizon runtime sample的00 quick start示例修改代码实现的吗?建议您可以使用hrt_model_exec工具(位于OE包ddk/package/board/hrt_tools/bin)的perf功能上板实测性能数据,单核单线程用于评测单帧的latency,双核多线程用于评测FPS(线程最大为8)。以板端实测的数据为准,x86上只用于验证。
2、可以参考我们OE包的全流程示例,该示例提供了摄像头采集图像数据,使用检测模型进行实时检测,可视化的完整流程及代码,位于ddk/samples/ai_forward_view_sample,详细介绍可以查看社区文章J5 全流程示例解读 (horizon.ai)
感谢回复!
对,根据00 quick start给出的step,参考ai_benchmark中yolov5的后处理,目前实现读取推理一帧图片,结果保存本地。
太菜了,还没进阶到那一步?
上板实测是跑数据集吗?
颜值即正义
5
关于hrt_model_exec工具的使用,可以查看工具链手册的5.5章节。做性能测试不需要跑数据集,这个工具会自己造一个数据,然后反复执行推理过程,最后统计出latency和FPS。这里给出一个最简的使用方法:./hrt_model_exec perf --model_file=xxxxxx.bin