Float16精度的ONNX模型使用CPU版本的Docker转换BIN模型报错

报错如下:-

这是我的config.yaml文件-

用的是官方yolov5导出的onnx模型,我自己觉得是要修改一下yaml文件中的某些参数,但是一直没弄对,万能社区求解upup

可参考这篇文章:https://developer.horizon.ai/forumDetail/146176826065197074

你好,我们暂不支持转换FP16的模式,只支持FP32走模型转换的流程。可以重新导出下onnx,也可以等等,我们这两天简单写个fp16模型转fp32模型的教程发在社区上,可以持续关注这篇文章:https://developer.horizon.ai/forumDetail/146176821770230117,写完后会放在这儿:

好的