开放能力
开发平台
行业应用
生态合作
开发与教学
资讯 社区 控制台
技术能力
语音技术
图像技术
文字识别
人脸与人体识别
视频技术
AR与VR
自然语言处理
知识图谱
数据智能
场景方案
部署方案
行业应用
智能教育
智能医疗
智能零售
智能工业
企业服务
智能政务
智能农业
信息服务
智能园区
智能硬件
EasyDL零门槛AI开发平台

    EasyDL图像专项适配Jetson-SDK集成快速开始

    简介

    Jetson SDK是适用于EasyDL图像模型快速部署的工具包。SDK中包含了EasyDL训练的模型资源文件、SDK和demo文件。

    测试前的准备

    • Jetson(Nano/TX2/Xavier)硬件及开发环境

      • 详情参考下方文档
    • EasyDL平台的Jetson专用SDK

      • 以图像分类为例,前往操作台训练「专项硬件适配SDK-Jetson」下的模型并发布SDK后,即可从平台下载
    • 用于激活专用SDK的序列号

      • 前往控制台申请用于激活Jetson专用SDK的序列号
      • 首次使用SDK或者更换序列号、更换设备时,需要联网激活。激活成功之后,有效期内可离线使用

    安装依赖

    在使用SDK之前,首先要确认自己的硬件类型和相应的依赖库安装是否已经符合要求。

    硬件要求:

    Jetson系列开发板:

    • Jetson Nano
    • Jetson TX2
    • Jetson Xavier NX
    • Jetson Xavier

    软件要求:

    • JetPack4.2.2
    • JetPack4.4

    其他要求:

    • 第一次使用SDK请确保联网

    JetPack的安装需要借助SDK Manager,安装过程参考Install Jetson Software with SDK Manager

    对于Jetson Nano和Xavier NX还可以使用Etcher将系统镜像烧录到micro SD Card的形式,这种方式更简单一些。

    SDK结构

    获取到的SDK解压后的目录结构是:

    图片

    其中:

    • cpp文件夹下有两个压缩包分别为适配不同版本JetPackck的SDK,解压缩后得到include头文件、lib库文件和demo示例代码文件。
    • RES文件夹下是EasyDL训练得到的模型资源文件。

    编译demo

    解压SDK后,进入到demo目录可以直接编译demo。编译方法如下:

    # 1. 首先进入demo目录
    # 2. 创建build文件夹并进入
    $ mkdir build && cd build
    # 3. 执行编译
    $ cmake ..
    $ make -j3
    # 4. 执行安装,把lib文件安装到系统路径,需要sudo权限;也可以选择不执行安装,把lib路径加为环境变量即可
    $ sudo make install
    # 5. 这时候应该会产出demo编译的可执行文件,直接执行可以查看需要的参数
    $ ./easyedge_batch_inference {res_dir} {image/image_dir}
    # 或
    $ ./easyedge_multi_thread {res_dir} {image/image_dir}
    # 或
    $ ./easyedge_serving {res_dir} {serial_key} {host, default 0.0.0.0} {port, default 24401}

    编译产出有三个可执行文件,分别为:

    • easyedge_batch_inference:提供了对批量图片预测的能力,预测速度快, 是最推荐使用的方式。
    • easyedge_multi_thread:提供了对多线程预测的支持。但是这种方式通常并不推荐使用,因为多线程下计算资源的相互竞争会拉慢单次预测的速度并且预测时间不稳定,建议优先考虑使用batch inference的方式。
    • easyedge_serving:提供了http服务的能力。启动服务后,可以在浏览器访问测试页面,或轻松把http服务接口集成到自己的应用中。

    其中前两个demo示例了SDK API的集成方式,第三个demo示例了如何使用SDK创建http服务。根据个人需求选择不同集成方式即可,接下来将分别介绍这两种集成方式。

    API集成

    使用SDK的API接口方式能提供功能丰富、预测速度快的能力。API接口的设计尽可能的降低了调用复杂度,可以很方便的集成到自己的应用当中。

    调用流程

    // 1. 设置序列号
    global_controller()->set_licence_key("ABCD-ABCD-ABCD-ABCD");
    // 2. 配置运行选项
    TensorRTConfig config;
    config.model_dir = argv[1];
    config.max_batch_size = 4;    // 优化的模型可以支持的最大batch_size,实际单次推理的图片数不能大于此值
    config.max_concurrency = 1;   // 设置device对应的卡可以使用的最大线程数
    config.fp16 = false;          // 置true开启fp16模式推理会更快,精度会略微降低,但取决于硬件是否支持fp16,不是所有模型都支持fp16,参阅文档
    // 3. 创建predictor并初始化
    auto predictor = global_controller()->CreateEdgePredictor(config);
    predictor->init();
    // 4. 执行预测
    predictor->infer(imgs, result);

    可以看到,调用SDK的API流程很简单,并可以通过config的不同配置实现不同的能力。比如支持批量图片预测、多线程预测、fp16加速等。实际集成的过程中,最需要注意的就是config的配置,一个适合自己应用场景的config参数配置才能带来最佳的预测速度。

    参数配置

    config的定义可以参见头文件easyedge.h

    struct TensorRTConfig : public EdgePredictorConfig {
        std::string model_filename{"model"};
        std::string params_filename{"params"};
        std::string cache_name{"m_cache"};
        /**
         * @brief GPU工作空间大小设置
         * workspace_size = workspace_prefix * (1 << workspace_offset)
         * workspace_offset: 10 = KB, 20 = MB, 30 = GB
         */
        int workspace_prefix{16};
        int workspace_offset{20};
        /**
         * @brief 生成最大 batch_size 为 max_batch_size 的优化模型,单次预测图片数量可以小于或等于此值
         */
        int max_batch_size{1};
        /**
         * @brief 设置使用哪张 GPU 卡
         */
        int device{0};
        /**
         * @brief 模型编译等级
         * 0:无论当前设置的max_batch_size是多少,仅使用历史编译产出(如果存在)
         * 1:如果当前max_batch_size与历史编译产出的max_batch_size不相等时,则重新编译模型(推荐)
         * 2:无论历史编译产出的max_batch_size为多少,均根据当前max_batch_size重新编译模型
         */
        int compile_level{1};
        /**
         * @brief 设置device对应的卡可以支持的最大并发量
         * 实际预测的时候对应卡的最大并发量不超过这里设置的范围
         */
        int max_concurrency{1};
        /**
         * @brief 是否开启fp16模式预测,需要硬件支持
         */
        bool fp16{false};
        /**
         * @brief 设置需要使用的DLA Core
         */
        int dla_core{-1};
    }

    cache_name:GPU加速版SDK首次加载模型会先对模型进行编译优化,通过此值可以设置优化后的产出文件名。比如,可以根据不同的配置来命名产出文件,从而可以在之后的运行中直接通过文件名就可以索引到编译产出,而不用再次执行优化过程。

    workspace_size:设置运行时可以被用来使用的最大临时显存。通常默认即可,但当执行预测失败时,可以适当调大此值。

    max_batch_size:此值用来控制批量图片预测可以支持的最大图片数,实际预测的时候单次预测图片数不可大于此值,但可以是不大于此值的任意图片数。建议设置为与实际需要批量预测的图片数量保持一致,以节省内存资源并可获得较高预测速度。

    device:设置需要使用的 GPU 卡号。

    compile_level:模型编译等级。通常模型的编译会比较慢,但编译产出是可以复用的。可以在第一次加载模型的时候设置合理的 max_batch_size 并在之后加载模型的时候直接使用历史编译产出。是否使用历史编译产出可以通过此值 compile_level 来控制,当此值为 0 时,表示忽略当前设置的 max_batch_size 而仅使用历史产出(无历史产出时则编译模型);当此值为 1 时,会比较历史产出和当前设置的 max_batch_size 是否相等,如不等,则重新编译;当此值为 2 时,无论如何都会重新编译模型。

    max_concurrency:通过此值设置单张 GPU 卡上可以支持的最大 infer 并发量,其上限取决于硬件限制。init 接口会根据此值预分配 GPU 资源,建议结合实际使用控制此值,使用多少则设置多少。注意:此值的增加会降低单次 infer 的速度且预测速度不稳定,建议优先考虑 batch inference。

    fp16:默认是 fp32 模式,置 true 可以开启 fp16 模式预测,预测速度会有所提升,但精度也会略微下降,权衡使用。注意:不是所有模型都支持 fp16 模式,也不是所有硬件都支持 fp16 模式。已知不支持fp16的模型包括:EasyDL图像分类高精度模型。

    运行demo

    命令执行格式:

    ./easyedge_batch_inference {模型RES文件夹}  {测试图片路径或图片文件夹路径}
    ./easyedge_multi_thread {模型RES文件夹}  {测试图片路径或图片文件夹路径}

    如:

    图片

    预测效果展示:

    图片

    Http服务集成

    使用SDK的http服务API可以创建一个http服务端口,从而可以在应用里或者网页中通过http请求的方式执行模型的预测并获取预测结果。

    调用流程

    // 1. 设置序列号
    global_controller()->set_licence_key("ABCD-ABCD-ABCD-ABCD");
    // 2. 配置运行选项
    TensorRTConfig config;
    config.model_dir = model_dir;
    // 3. 启动服务
    return global_controller()->start_http_server(config, host, port, service_id, 1);

    编译并运行后就会在控制台启动一个服务,默认地址为:http://{设备ip}:24401,通过在浏览器访问此地址可以打开一个测试页面,上传图片即可获取识别结果。

    运行demo

    demo命令执行格式

    ./easyedge_serving {res_dir} {serial_key} {host, default 0.0.0.0} {port, default 24401}

    如:

    图片

    当出现提示:HTTP is now serving at 0.0.0.0:24401, holding 1 instances 时,表示服务已经启动成功,这时候可以在浏览器里输入地址打开一个测试页面。如下所示:

    图片

    上传图片,可以看到预测效果:

    图片

    也可以通过在自己的项目中请求此地址做预测,并获取预测结果。URL中的get参数:

    参数 说明 默认值
    threshold 阈值过滤, 0~1 如不提供,则会使用模型的推荐阈值

    HTTP POST Body即为图片的二进制内容(无需base64, 无需json)

    如使用Python的请求示例:

    import requests
    
    with open('./1.jpg', 'rb') as f:
        img = f.read()
        result = requests.post(
    	    'http://127.0.0.1:24401/',
    	    params={'threshold': 0.1},
    	    data=img).json()

    http请求的返回格式为:

    字段 类型说明 其他
    error_code Number 0为成功,非0参考message获得具体错误信息
    results Array 内容为具体的识别结果。其中字段的具体含义请参考开发文档
    cost_ms Number 预测耗时ms,不含网络交互时间

    开发板使用技巧

    查询L4T或JetPack版本

    有时候我们可能不记得自己的板子刷的是哪个JetPack版本了,可以通过下面这条命令查询L4T的版本。

    # 在终端输入如下命令并回车
    $ head -n 1 /etc/nv_tegra_release
    # 就会输出类似如下结果
    $ # # R32 (release), REVISION: 4.3, GCID: 21589087, BOARD: t210ref, EABI: aarch64, DATE: Fri Jun 26 04:38:25 UTC 2020

    从输出的结果来看,我的板子当前的L4T版本为R32.4.3,对应JetPack4.4。 但是,L4T的版本不是JetPack的版本,不过一般可以从L4T的版本唯一对应到JetPack的版本,下面列出了最近几个版本的对应关系:

    L4T R32.4.3  -->  JetPack4.4
    L4T R32.4.2  -->  JetPack4.4DP
    L4T R32.2.1  -->  JetPack4.2.2
    L4T R32.2.0  -->  JetPack4.2.1

    功率模式设置与查询

    不同的功率模式下,执行AI推理的速度是不一样的,如果对速度需求很高,可以把功率开到最大,但记得加上小风扇散热~

    # 1. 运行下面这条命令可以查询开发板当前的运行功率模式
    $ sudo nvpmodel -q verbose
    # $ NV Power Mode: MAXN
    # $ 0
    # 如果输出为MAXN代表是最大功率模式
    
    # 2. 若需要把功率调到最大,运行下面这条命令
    $ sudo nvpmodel -m 0
    
    # 如果你进入了桌面系统,也可以在桌面右上角有个按钮可以切换模式
    
    # 3. 查询资源利用率
    $ sudo tegrastats
    上一篇
    专项适配硬件EdgeBoard(FZ)
    下一篇
    价格说明