Paddle Lite端侧部署

Paddle Lite端侧部署

端侧推理引擎的由来

随着深度学习的快速发展、特别是小型网络模型的不断成熟,原本应用到云端的深度学习推理,就可以放到终端上来做,比如手机、手表、摄像头、传感器、音响,也就是端智能。此外,可用于深度学习计算的硬件也有井喷之势,从Intel到Nvidia、ARM、Mali,再到国产的寒武纪等等。
相比服务端智能,端智能具有低延时、省云端资源、保护数据隐私等优势。目前端智能正逐渐变为趋势,从业界来看,它已经在AI摄像、视觉特效等场景发挥了巨大价值。深度学习推理场景中,多样的平台,不同的硬件,对推理库的能力提出了更高的要求。端侧模型的推理经常面临算力和内存的限制,加上日趋异构化的硬件平台和复杂的端侧使用状况,导致端侧推理引擎的架构能力颇受挑战。
端侧推理引擎是端智能应用的核心模块,需要在有限算力、有限内存等限制下,高效地利用资源,快速完成推理。可以说,端侧推理引擎实现的优劣,直接决定了算法模型能否在端侧运行,决定了业务能否上线。因此,希望提供面向不同业务算法场景,不同训练框架,不同部署环境的简单、高效、安全的端侧推理引擎。

 

 图2 支持多种硬件、操作系统和编程接口

Paddle Lite是什么

Paddle Lite是飞桨自研的新一代端侧推理推理框架,支持PaddlePaddle/TensorFlow/Caffe/ONNX模型的推理部署,目前已经支持ARM CPU, Mali GPU, Adreno GPU, Huawei NPU等多种硬件,正在逐步增加X86 CPU, Nvidia GPU 等多款硬件,相关硬件性能业内领先。截止到现在,Paddle Lite已广泛应用于搜索广告、手机百度、百度地图、全民小视频等多个公司重点业务。
Paddle Lite具备以下几个特点:

  • 多平台:不同于其他的推理引擎,Paddle Lite依托飞桨训练框架及其对应的丰富完整的算子库,底层算子计算逻辑与训练严格一致,模型完全兼容无风险。支持PaddlePaddle、TensorFlow、Caffe、ONNX等多种平台的主流模型格式;支持MobileNetV1、YoloV3、UNet、SqueezeNet等主流模型;对Int8量化模型有很好的支持。同时,可以支持端侧多个平台,比如Android, iOS, ArmLinux等。
  • 多硬件:目前支持 ARM CPU, Mali GPU, Adreno GPU, 华为NPU,X86 CPU, NVIDIA GPU、FPGA等多种硬件平台,是目前首个支持华为NPU在线编译的深度学习推理框架。Paddle Lite可以完整承担深度学习模型在不同硬件平台上的的推理部署需求,从而保障了硬件的支持能力。
  • 高性能:通过底层计算模式的建模,增加了多种计算模式(硬件、量化方法、Data Layout)混合调度的完备性设计;对不同硬件进行针对性优化,充分挖掘硬件性能极致,在推理速度上全面超越业界。
  • 轻量级:提供Model Optimize Tool对模型进行优化,其中包含诸如量化、融合、Kernel优选等优化手段,优化后的模型更轻量级,耗费资源更少,从而执行速度也更快。同时,Paddle Lite支持分析阶段与执行阶段分离,线下模型优化,线上模型部署,部署不依赖于任何第三方库。
    • 量化:可以分为静态离线量化和动态离线量化。静态离线量化是指使用少量校准数据计算量化因子,快速得到量化模型。使用该量化模型进行预测,可以减少计算量、降低计算内存、减小模型大小。动态离线量化是指将模型中特定OP的权重从FP32类型量化成INT8/16类型,减少模型的大小。
    • 融合:将多个连续OP融合成单个等效OP,或者将专属于某个硬件的OP融合为一个子图,只有这部分子图运行在指定的硬件上,减少数据交换并简化图结构。例如将NPU相关的op融合为一个子图,这个子图的计算都在NPU上进行,其它OP的计算在CPU或GPU上进行。
    • Kernel优选:OP的具体实现需要依赖Kernel,每个OP基于不同的硬件或同一硬件不同版本可以选择不同的Kernel。Paddle Lite可以基于策略优选合适的Kernel来进行计算。
  • 简单易用:支持C++、Java、Python多种编程语言的编程接口。

 

 图2 多种推理终端和多种推理硬件层出不穷

Paddle Lite推理流程

使用Paddle Lite对模型进行部署推理的流程分以下阶段:

  1. 模型训练阶段:主要解决模型训练,利用标注数据训练出对应的模型文件。面向端侧进行模型设计时,需要考虑模型大小和计算量。
  2. 模型部署阶段:
    a) 获取模型:用户可以直接使用飞桨训练出的模型进行部署,也可以使用Caffe, TensorFlow或ONNX平台训练的模型,需要使用X2Paddle工具将其它框架训练的模型转换到Paddle格式。
    b) (可选)模型压缩:主要优化模型大小,借助PaddleSlim提供的剪枝、量化等手段降低模型大小,以便在端上使用。
    c) 通过Model Optimize Tool将模型转换为Paddle lite的nb模型,然后开始部署。
    d) 在终端上通过调用Paddle Lite提供的API接口(提供C++、Java、Python等API接口),完成推理相关的所有计算。

 

 图3 部署流程

Paddle Lite支持的模型

Paddle Lite目前已严格验证28个模型的精度和性能,对视觉类模型做到了较为充分的支持,覆盖分类、检测、分割等多个领域,包含了特色的OCR模型的支持,并在不断丰富中。其支持的list如下:

 注意:

  1. 模型列表中 * 代表该模型链接来自PaddlePaddle/models,否则为推理模型的下载链接
  2. 支持平台列表中 NPU* 代表ARM+NPU异构计算,否则为NPU计算

Paddle Lite Demo

为用户准备了多个完整的Paddle Lite Demo,方便用户直接使用Demo调用Paddle Lite进行体验,也可以发挥想象对Demo进行二次开发。Paddle Lite Demo覆盖AndroidiOSArmlinux三大平台,涵盖人脸识别人像分割图像分类目标检测基于视频流的人脸检测+口罩识别等多个应用场景。

1. 人脸识别
人脸识别是Paddle Lite提供的人脸识别Demo。在移动端上提供了高精度、实时的人脸检测、人脸关键点定位等能力,能处理基于人脸检测的业务场景。在移动端推理的效果图如下:

  

 

2. 人像分割

人像分割是Paddle Lite 提供的图像分割Demo。在移动端上提供了实时的人像分割能力,可以应用证件照自动抠图、面积测量、智能交通(标记车道和交通标志)等场景。 在移动端推理的效果图如下:

 

3. 图像分类

图像分类是Paddle Lite 提供的图像处理Demo。在移动端上提供了实时的物体识别能力,可以应用到生产线自动分拣或质检、识别医疗图像、辅助医生肉眼诊断等场景。在移动端推理的效果图如下:

  

 

4. 目标检测

目标检测是Paddle Lite 提供的图像识别Demo。在移动端上提供了检测多个物体的位置、名称、位置及数量的能力。可以应用到视频监控(是否有违规物体或行为)、工业质检(微小瑕疵的数量和位置)、医疗诊断(细胞计数、中药识别)等场景。在移动端推理的效果图如下:

     

 

5. 基于视频流的人脸检测+口罩识别

基于视频流的人脸检测+口罩识别是Paddle Lite 是在疫情期间提供的在戴口罩与否下人脸识别Demo。在移动端上提供了是否佩戴口罩识别、高精度和实时的人脸检测等能力,能处理多种场景下人脸检测业务,如戴口罩下人脸检测。在移动端推理的效果图如下:

 

 

Paddle Lite Demo在不同平台下的操作方法稍有不同,下面以目标检测Demo为例,分别介绍如何在Android和iOS平台进行部署。

Android平台实战

Android demo部署方法

以 目标检测Demo(object_detection_demo) 为例,讲解如何部署Android工程。将基于Paddle Lite推理库的Android Demo部署到Android手机,实现目标检测。

环境准备

  • 一部Android手机(开启USB调试模式)
  • 一根数据线
  • 已制作好的Paddle Lite Demo
  • 电脑一台:安装Android Studio

部署步骤

  1. 下载Paddle-Lite-Demo,存放地址为: Paddle-Lite-DemoPaddleLite-android-demoobject_detection_demo。
  2. 用Android Studio 打开object_detection_demo工程 (本步骤需要联网)。
  3. 手机连接电脑,打开USB调试文件传输模式,在Android Studio上连接自己的手机设备(手机需要开启允许从USB安装软件权限)。
  4.  4. 按下Run按钮,自动编译APP并安装到手机。(该过程会自动下载Paddle Lite推理库和模型,需要联网)。成功后效果如下,左图是APP安装到手机,右图是APP打开后的效果,会自动识别图片中的物体并标记。

     

 

 Android demo结构讲解

Android demo的代码结构如下所示:

 

  1. Predictor.java:推理代码

# 位置:

object_detection_demo/app/src/main/java/com/baidu/paddle/lite/demo/object_detection/Predictor.java

  1. model.nb:模型文件 (opt 工具转化后Paddle-Lite模型);pascalvoc_label_list:训练模型时的labels文件

# 位置:

object_detection_demo/app/src/main/assets/models/ssd_mobilenet_v1_pascalvoc_for_cpu/model.nb

object_detection_demo/app/src/main/assets/labels/pascalvoc_label_list

  1. libpaddle_lite_jni.so、PaddlePredictor.jar: Paddle-Lite Java 推理库与Jar包

# 位置

object_detection_demo/app/src/main/jniLibs/arm64-v8a/libpaddle_lite_jni.so

object_detection_demo/app/libs/PaddlePredictor.jar

  1. build.gradle:定义编译过程的 gradle 脚本。(不用改动,定义了自动下载Paddle-Lite推理和模型的过程)

# 位置

object_detection_demo/app/build.gradle

Paddle Lite Java API使用指南

Android demo基于Java API开发,调用Paddle Lite Java API包括以下五步。更详细的API描述参考:Paddle Lite Java API

// 导入Java API

import com.baidu.paddle.lite.MobileConfig;

import com.baidu.paddle.lite.Tensor;

import com.baidu.paddle.lite.Predictor;

import com.baidu.paddle.lite.PowerMode;

 

// 1. 写入配置:设置MobileConfig

MobileConfig config = new MobileConfig();

config.setModelFromFile(<modelPath>); // 设置Paddle Lite模型路径

config.setPowerMode(PowerMode.LITE_POWER_NO_BIND); // 设置CPU运行模式

config.setThreads(4); // 设置工作线程数

 

// 2. 创建 PaddlePredictor

PaddlePredictor predictor = PaddlePredictor.createPaddlePredictor(config);

 

// 3. 设置输入数据

long[] dims = {100, 100};

float[] inputBuffer = new float[10000];

for (int i = 0; i < 10000; ++i) {

    inputBuffer[i] = i;

}

Tensor input = predictor.getInput(0);

input.resize(dims);

input.setData(inputBuffer);

 

// 4. 执行推理

predictor.run();

 

// 5. 获取输出数据

Tensor output = predictor.getOutput(0);

float[] output = result.getFloatData();

for (int i = 0; i < 1000; ++i) {

    System.out.println(output[i]);

}

如何替换Android demo中的模型

本节详细讲解如何替换“目标检测”demo中的模型(比如替换为“人脸检测”模型),并将模型部署到Android demo。

替换简述:替换demo中的模型和label文件,并修改推理代码Predictor.java。

  1. 安装paddle-lite 的opt python工具 Linux、Mac、Windows环境支持直接从pip安装paddle-lite工具,安装后可以在python 端调用paddlelite预测工具和模型转换工具opt

pip install paddlelite

  1. 使用opt工具转化模型。
    在终端执行下面命令完成转化。

# 假设模型在当前路径下的`./ssd_mobilenet_v1_pascalvoc`。

paddle_lite_opt

    --model_dir=./ssd_mobilenet_v1_pascalvoc

    --optimize_out_type=naive_buffer

    --optimize_out=./ssd_mobilenet_v1_pascalvoc_opt

    --valid_targets=arm

转化过程与结果如下图所示:ssd_mobilenet_v1_pascalvoc_opt.nb为转化结果 

 opt 参数说明:

 

  1. 替换模型和相应的label文件 用转化后的model文件和label文件替换Android Demo中的对应位置。
  2. 修改predictor.java文件。一般需要修改代码中的“模型名称”和输入的shape。
  3. 参考“Android Demo部署方法”,重新构建并运行Android demo。

如何替换Demo中的Paddle Lite推理库

如果您想替换Demo中的Paddle Lite推理库(如想修改推理库版本),你可以在Paddle Lite relase界面下载指定版本的推理库并替换。
1.下载Paddle Lite预编译库
推理库下载界面位于Paddle Lite官方预编译库,可根据需求选择合适版本。
Android-ARMv8架构为例,可以下载以下版本。

 

**解压后内容如下图所示。

 

 说明: libpaddle_lite_jni.so是Java推理库文件,位于inference_lite_lib.android.armv8/java/so/libpaddle_lite_jni.so PaddlePredictor.jar是Java推理库对应的Jar文件,位于inference_lite_lib.android.armv8/java/jar/PaddlePredictor.jar

  1. 用新下载的libpaddle_lite_jni.so 和PaddlePredictor.jar替换demo中的推理库文件。

mkdir app/src/main/jniLibs/arm64-v8a

cp inference_lite_lib.android.armv8/java/so/libpaddle_lite_jni.so  ./app/src/main/jniLibs/arm64-v8a

cp inference_lite_lib.android.armv8/java/jar/PaddlePredictor.jar ./app/libs/

iOS平台目标检测实战

iOS demo部署方法

以 目标检测Demo(object_detection_demo) 为例,讲解如何部署iOS工程。将基于Paddle Lite推理库的iOS Demo部署到苹果手机,实现目标检测。

环境准备

  • 一部iPhone手机(开启USB调试模式)
  • 一根数据线
  • 已制作好的Paddle-Lite-Demo工程
  • Mac电脑一台:安装Xcode

部署步骤

  1. 目标检测的iOS示例位于 Paddle-Lite-DemoPaddleLite-ios-demoobject_detection_demo。
  2. 终端中执行 download_dependencies.sh脚本自动下载模型和Paddle-Lite推理库。

cd PaddleLite-ios-demo          # 终端中进入 Paddle-Lite-DemoPaddleLite-ios-demo

sh download_dependencies.sh     # 执行脚本下载依赖项 (需要联网)

下载完成后会出现提示: Extract done

  1. 用Xcode打开object_detection_demo/detection_demo.xcodeproj文件,修改工程配置。 依次修改 General/Identity和Signing&Capabilities属性,替换为自己的工程代号和团队名称。(必须修改,不然无法通过编译)

 

 

  1. iPhone手机连接电脑,在Xcode中连接自己的手机 (第一次连接IPhone到电脑时,需要在IPhone的设置->通用->设备管理中选择本电脑并信任)。

 

  1. 按下左上角的 Run按钮,自动编译APP并安装到手机。在苹果手机中设置信任该APP(进入设置->通用->设备管理,选中新安装的APP并验证该应用)。

成功后效果如下,左图:APP安装到手机 ,右图: APP打开后的效果,会自动识别图片中的物体并标记。

     

 

 iOS demo结构讲解

iOS 示例的代码结构如下所示。

 

  1. mobilenetv1-ssd: 模型文件 (opt 工具转化后Paddle-Lite模型)

# 位置:

ios-detection_demo/detection_demo/models/mobilenetv1-ssd

2.libpaddle_api_light_bundled.a、paddle_api.h : Paddle-Lite C++ 推理库和头文件

# 位置:

# iOS推理库

ios-detection_demo/detection_demo/lib/libpaddle_api_light_bundled.a

# 推理库头文件

ios-detection_demo/detection_demo/include/paddle_api.h

ios-detection_demo/detection_demo/include/paddle_use_kernels.h

ios-detection_demo/detection_demo/include/paddle_use_ops.h

  1. ViewController.mm:主要推理代码

# 位置

ios-detection_demo/detection_demo/ViewController.mm

Paddle-Lite C++ API使用指南

IOS Demo基于C++ API 开发,调用Paddle-Lite C++ API包括以下五步。更详细的API 描述参考: Paddle Lite C++ API

#include <iostream>

// 引入C++ API

#include "paddle_api.h"

 

// 1. 设置MobileConfig

MobileConfig config;

config.set_model_from_file(<modelPath>); // 设置NaiveBuffer格式模型路径

config.set_power_mode(LITE_POWER_NO_BIND); // 设置CPU运行模式

config.set_threads(4); // 设置工作线程数

 

// 2. 创建PaddlePredictor

std::shared_ptr<PaddlePredictor> predictor = CreatePaddlePredictor<MobileConfig>(config);

 

// 3. 设置输入数据

std::unique_ptr<Tensor> input_tensor(std::move(predictor->GetInput(0)));

input_tensor->Resize({1, 3, 224, 224});

auto* data = input_tensor->mutable_data<float>();

for (int i = 0; i < ShapeProduction(input_tensor->shape()); ++i) {

  data[i] = 1;

}

 

// 4. 执行推理

predictor->run();

 

// 5. 获取输出数据

std::unique_ptr<const Tensor> output_tensor(std::move(predictor->GetOutput(0)));

std::cout << "Output shape " << output_tensor->shape()[1] << std::endl;

for (int i = 0; i < ShapeProduction(output_tensor->shape()); i += 100) {

  std::cout << "Output[" << i << "]: " << output_tensor->data<float>()[i]

            << std::endl;

}

如何替换iOS demo 中的模型

  1. 替换推理库 将预编译库中的libpaddle_api_light_bundled.a, 拷入到ios-detection_demo工程下的detection_demo/lib/文件夹。

说明:libpaddle_api_light_bundled.a是C++推理库文件,位于inference_lite_lib.ios64.armv8/lib/libpaddle_api_light_bundled.a

可以手动复制也可以用下面命令在终端中执行

# 终端中复制方法:假设`inference_lite_lib.ios64.armv8`为预编译库地址 

cp inference_lite_lib.ios64.armv8/lib/libpaddle_api_light_bundled.a  ./detection_demo/lib/

 

  1. 替换推理库头文件 将预编译库中的inference_lite_lib.ios64.armv8/include/下的所有.h文件, 拷入到ios-detection_demo工程下的paddle_lite文件夹下。
    说明:inference_lite_lib.ios64.armv8/include/下的.h文件是C++ 推理库的头文件。
    可以手动复制也可以用下面命令在终端中执行

# 终端中复制方法:假设`inference_lite_lib.ios64.armv8为预编译库地址

cp inference_lite_lib.ios64.armv8/include/*  detection_demo/paddle_lite/

  1. 替换模型 将转化后的移动端模型ssd_mobilenet_v1_pascalvoc_opt.nb, 拷入到ios-detection_demo工程下的detection_demo/models/文件夹。

可以手动复制也可以用下面命令在终端中执行

# 终端中复制方法:假设优化后的模型位置为`ssd_mobilenet_v1_pascalvoc_opt.nb`

cp  ssd_mobilenet_v1_pascalvoc.nb ./detection_demo/models/

4.重新构建和运行构建iOS工程。

 

人工智能芯片与自动驾驶
原文地址:https://www.cnblogs.com/wujianming-110117/p/14398502.html