亚马逊AWS官方博客
使用 Spring Boot 和 DJL(Deep Java Library) 轻松搭建企业级机器学习微服务
Original article: https://aws.amazon.com/blogs/opensource/adopting-machine-learning-in-your-microservices-with-djl-deep-java-library-and-spring-boot/
Author: Mikhail Shapirov Reworked by: Qing Lan
前言
许多AWS云服务的用户,无论是初创企业还是大公司,都在逐步将机器学习 (ML) 和深度学习 (DL) 任务搭载在他们已有产品之上。大量的机器学习任务应用在商业和工业领域,例如应用在图像和视频中的目标检测,文档中的情感分析,大数据中的欺诈识别。尽管机器学习应用广泛应用在其他语言中(例如Python),但是对于广大已有产品的开发者学习和集成成本依然很高。试想一下,如果要用另一种语言集成在已有的Java服务中,从写代码,编译,测试到最后部署都要做出大量改变。为了解决用户在这方面上的痛点,这篇文章将提出一种解决问题的新思路:用户无需对已有的资源和人员重新调配,可以直接部署机器学习应用在现有的服务中。
Spring Boot在生产环境中的应用
Spring Boot是一个在微服务领域中广泛应用的开源平台。它的主要特色就是简化了分布式系统分发管理应用的过程。但是就目前来看,用户可选的部署ML应用方案屈指可数。就拿推理应用来说,用户可以通过使用Stock API 创建一个基于C++或者Python应用的RPC API来实现不同语言的推理任务。尽管这个解决方案可以在最短时间内解决部署的燃眉之急,但是从长期运行的效果来看,它造成了大量的维护成本以及效率问题。单纯就RPC通信这一方面来说,可能仅仅通信的时间消耗就已经达到了推理的时间消耗,造成这个解决方案成为整体应用速度提升的瓶颈。
为了更好的解决开发者的困境,AWS云服务推出了基于深度学习的开源Java库, DeepJavaLibrary (DJL)。DJL的服务宗旨是简化昂贵且繁琐的开发流程,将更好更稳定的解决方案带给广大的开发者。这篇文章会从一个基本的Spring boot 应用出发,利用Deep Java Library (DJL),来集成机器学习应用在微服务中。仅通过几行代码,就可以轻松实现目标检测和图像分类任务。
配置Spring Boot Starter (SBS)
Spring Boot Starter 是一个一站式的Spring库管理工具。它简化了诸多引用新的库需要进行的操作,比如复制粘贴样本代码,修改配置文件等。请参考Spring Boot Starter官方指南以获取更多信息。在我们今天的教学中,我们将使用DJL Spring Boot Starter, 一个增加了深度学习部署功能的SBS。在现有架构的基础上,DJL SBS增添了自动配置的功能。它使得用户无需担心依赖项,几行代码就可以将它们作为beans应用在Spring框架下。如果后面有任何一步不是很清楚,可以参考我们示例应用。
依赖项管理
DJL库可以应用在各种操作系统平台上,也同时支持多种深度学习引擎,比如TensorFlow 2.0, PyTorch以及MXNet。DJL内建了一系列自动选择机制,用户无需选择运行的操作系统。但是DJL仍旧需要用户选择一种或多种深度学习引擎。以MXNet 为例,用户可以选择进行如下的配置 (pom.xml):
用户可以自己选择需要运行的平台,上面 <dependency>
中, linux-x86_64
(Linux) 可以被替换为 win-x86_64
(Windows), 或者 osx-x86_64
(Mac OS)。
我们也提供了一种在运行时自动寻找相应系统的全自动依赖项 auto
:
如果需要使用PyTorch,可以做出如下更改:
Gradle的配置也十分相似,只需要如下几行:
注意,由于SpringBoot本身使用了一个旧版的JNA库,我们需要手动设置gradle.properties
里面的"jna.version=5.3.0"
。
使用Spring 全自动选择功能
接下来,我们可以通过添加如下依赖项来使用 Spring的 auto-configuration 来实现自动选择功能:
在gradle:
导入这个dependency之后,Spring Boot 会自动配置环境和寻找模型。开发者需要提供一个标准的Spring 配置文件,如 application.yml
或者 application.properties
。模型的类型可以选择下面任意一个:
比如,如果想进行目标检测,那么就可以选择 OBJECT_DETECTION
。可以参考下面的 yaml
来配置:
IDE 支持
我们推荐用户使用IDE,如intelliJ或者Eclipse:
intelliJ可以通过
Ctrl+Space 来自动完成
Ctrl+J 来快速查询文档
运行你的应用
现在我们赶紧试试看之前配置的效果吧。从现在开始,我们只需要两步就可以完成所有的模型部署运行任务。在此之前,开发者只需要创建一个简单的单一类Spring应用即可。
第一步:注入 predictor 用来做目标检测
第二步: 运行目标检测
如果你使用了我们的示例,那么在console会显示如下结果:
a.d.s.e.console.ConsoleApplication: results: class: "dog", probability: 0.90820, bounds: {x=0.487, y=0.057, width=0.425, height=0.484}
快速复现
只需如下几行,便可以轻松运行这个示例应用
git clone git@github.com:awslabs/djl-spring-boot-starter.git
cd djl-spring-boot-starter/djl-spring-boot-console-sample
../mvnw package
../mvnw spring-boot:run
我们也提供了一个更复杂的例子,你可以使用多种插件,快速实现一个Restful的分类器微服务。
了解DJL
DJL是AWS云服务在2019年re:Invent大会推出的专为Java开发者量身定制的深度学习框架,现已运行在亚马逊数以百万的推理任务中。如果要总结DJL的主要特色,那么就是如下三点:
DJL不设限制于后端引擎:用户可以轻松的使用 MXNet, PyTorch, TensorFlow和fastText来在Java上做模型训练和推理。
DJL的算子设计无限趋近于numpy:它的使用体验上和numpy基本是无缝的,切换引擎也不会造成结果改变。
DJL优秀的内存管理以及效率机制:DJL拥有自己的资源回收机制,100个小时连续推理也不会内存溢出。
现在可以在 Mac/Linux/Windows全平台运行DJL。DJL具有自检测CUDA版本的功能,也会自动采用对应的CUDA版本包来运行gpu任务。想了解更多,请参见下面几个链接:
https://djl.ai
https://github.com/awslabs/djl
也欢迎加入 DJL slack论坛。