双输入模型转换后,推理过程中出现错误

1.芯片型号:X3派

2.天工开物开发包OpenExplorer版本:XJ3_OE_2.5.2

3.问题定位:板端部署等

4.问题具体描述

多输入的模型怎么进行写代码,没有案例,不是很清楚,请技术解答,感谢!!!

SeAFusion_20230411031657.zip

已解决,输入格式没有改成uint8,改了之后就没问题了

outputs = models[0].forward(input1, input2)

您说的这个方法我最开始试过了,会出现如下错误:

建议先试用c++版本进行测试,python版本方便的话可以提供模型,我们进行验证

模型提供了,在附件里

上传有限制,没有包含校验数据,这个是完整版的:

链接:https://pan.baidu.com/s/1jEgPpREOZB7Q58x\_qzyWJA?pwd=feyk

提取码:feyk

--来自百度网盘超级会员V5的分享

你好,c++版本的多输入示例代码在哪里可以看到