kja23
1
1.芯片型号:J5
2.天工开物开发包OpenExplorer版本:J5_OE_1.1.68
3.问题定位:模型转换时,配置部分节点为int16精度,转换报告错误
4.问题具体描述:
使用命令:hb_mapper makertbin --config ./trafficLightV2.yaml --model-type onnx
使用的校准数据集:yolov5x校准数据集,模型输入尺寸,640*640
使用的onnx模型:
链接:https://pan.baidu.com/s/1\_K4vGlcijONI-AgWDDb2Kg
提取码:xjtg
trafficLightV2.yaml
kja23
2
给出的patch和目前版本1.1.68的其他工具链不匹配。麻烦给出完整的ai_toolchain-
open_explorer/ddk/package/host/ai_toolchain
颜值即正义
3
您好,地平线工具链在持续迭代优化,为了给您提供更好的服务,希望您能抽出3分钟左右的时间,将您在使用工具链期间的感受和建议告诉我们,您的宝贵意见对我们很重要,非常感谢!-
问卷链接:地平线算法工具链使用满意度反馈
颜值即正义
5
你好,该问题已修复,用patch版horizon-nn替换,可以先pip uninstall再pip install以保证完整覆盖,获取途径:https://pan.horizon.ai/index.php/s/pJzxKoEAdRXgbDo
颜值即正义
6
你好,可以先尝试使用我们提供的docker,在docker中已验证替换无冲突
kja23
7
你好,在安装环境过程中会出现如下的关于matplotlib冲突,请问可以提供最后一张图片中的全部whl包吗?
kja23
8
替换后,量化出的onnx模型推理正确,bin模型推理存在问题。且量化后的bin模型输出tensor维度和量化前onnx模型、量化onnx模型不一致。-


颜值即正义
9
你好,bin模型维度为了符合硬件约束自动补充维度到四维,这个不会对结果有影响,如果量化后的quantized.onnx精度正常,建议您参考 PTQ&QAT方案板端验证注意事项 (horizon.cc) 验证bin模型,或者使用hb_verifier工具验证quantized.onnx和bin模型的一致性 6.2.7. hb_verifier 工具 — Horizon Open Explorer 。(换句话说需要确定模型首尾Quantize/Dequantize是否删除,并且要对bin模型输入数据类型做处理)
kja23
10
已经使用hb_verifier工具验证quantized.onnx和bin模型的一致性,验证通过,板端模型输出也是正常的
颜值即正义
12
你好,通过在板端使用hrt_model_exec model_info工具可以看到,板端实际输出大小是1x1x25200x64,Int16精度,存储为2字节

从37到64为硬件对齐而产生的padding操作
kja23
13
修改后处理数据类型及对齐tensor形状后,问题得到解决了