paddlex 使用-13 关于飞桨图像分割在android移动端使用问题

使用视盘分割示例

1、 导出到移动端模型,使用paddleLite示例,运行崩溃

2、 使用OPT命令

 ./opt --model_file=./inference_model/__model__
--param_file=./inference_model/__params__
--valid_targets=arm --optimize_out_type=naive_buffer
--optimize_out=tttt

  

生成模型后,使用示例运行,弹出窗口,再点预测程序会崩溃。  

3、使用 --print_model_ops=true 命令检测

 看起来正常,目前官方技术人员也不知道原因。

4、另外小度熊分拣使用的是实例分割模式,无法导出移动端模型

官方解释:maskrcnn一般用resnet50,不过不能导出移动端模型。

基于以上各种问题,准备上(NVIDIA)Jetson NANO Developer KIT B01 硬件了

原文地址:https://www.cnblogs.com/zhaogaojian/p/14125809.html