《云原生时代的蜕变,进击的Java》

做者:易立 阿里云资深技术专家 连接:https://mp.weixin.qq.com/s/x509eBHiDuasGmJupJKVow 复制代码

云原生时代的来临,与Java 开发者到底有什么联系?有人说,云原生压根不是为了 Java 存在的。然而,本文的做者却认为云原生时代,Java 依然能够胜任“巨人”的角色。做者但愿经过一系列实验,开拓同窗视野,提供有益思考。html

在企业软件领域,Java 依然是绝对王者,但它让开发者既爱又恨。一方面由于其丰富的生态和完善的工具支持,能够极大提高了应用开发效率;但在运行时效率方面,Java 也背负着”内存吞噬者“,“CPU 撕裂者“的恶名,持续受到 NodeJS、Python、Golang 等新老语言的挑战。java

在技术社区,咱们常常看到有人在唱衰 Java 技术,认为其再也不符合云原生计算发展的趋势。先抛开上面这些观点,咱们首先思考一下云原生对应用运行时的不一样需求:git

  • 体积更小:对于微服务分布式架构而言,更小的体积意味着更少的下载带宽,更快的分发下载速度。
  • 启动速度更快:对于传统单体应用,启动速度与运行效率相比不是一个关键的指标。缘由是,这些应用重启和发布频率相对较低。然而对于须要快速迭代、水平扩展的微服务应用而言,更快的的启动速度就意味着更高的交付效率,和更加快速的回滚。尤为当你须要发布一个有数百个副本的应用时,缓慢的启动速度就是时间杀手。对于Serverless 应用而言,端到端的冷启动速度则更为关键,即便底层容器技术能够实现百毫秒资源就绪,若是应用没法在 500ms 内完成启动,用户就会感知到访问延迟。
  • 占用资源更少:运行时更低的资源占用,意味着更高的部署密度和更低的计算成本。同时,在 JVM 启动时须要消耗大量 CPU资源对字节码进行编译,下降启动时资源消耗,能够减小资源争抢,更好保障其余应用 SLA。
  • 支持水平扩展:JVM 的内存管理方式致使其对大内存管理的相对低效,通常应用没法经过配置更大的 heap size 实现性能提高,不多有 Java 应用可以有效使用 16G 内存或者更高。另外一方面,随着内存成本的降低和虚拟化的流行,大内存配比已经成为趋势。因此咱们通常是采用水平扩展的方式,同时部署多个应用副本,在一个计算节点中可能运行一个应用的多个副原本提高资源利用率。

热身准备github

熟悉 Spring 框架的开发者大多对 Spring Petclinic 不会陌生。本文将借助这个著名示例应用来演示如何让咱们的 Java 应用变得更小、更快、更轻、更强大!面试

咱们 fork 了 IBM 的 Michael Thompson 的示例,并作了一些调整。spring

$ git clone https://github.com/denverdino/adopt-openj9-spring-boot $ cd adopt-openj9-spring-boot 复制代码

首先,咱们会为 PetClinic 应用构建一个 Docker 镜像。在 Dockerfile 中,咱们利用 OpenJDK 做为基础镜像,安装 Maven,下载、编译、打包 Spring PetClinic 应用,最后设置镜像的启动参数完成镜像构建。docker

$ cat Dockerfile.openjdk FROM adoptopenjdk/openjdk8 RUN sed -i 's/archive.ubuntu.com/mirrors.aliyun.com/' /etc/apt/sources.list RUN apt-get update RUN apt-get install -y \ git \ maven WORKDIR /tmp RUN git clone https://github.com/spring-projects/spring-petclinic.git WORKDIR /tmp/spring-petclinic RUN mvn install WORKDIR /tmp/spring-petclinic/target CMD ["java","-jar","spring-petclinic-2.1.0.BUILD-SNAPSHOT.jar"] 复制代码

构建镜像并执行数据库

$ docker build -t petclinic-openjdk-hotspot -f Dockerfile.openjdk . $ docker run --name hotspot -p 8080:8080 --rm petclinic-openjdk-hotspot |\ _,,,--,,_ /,`.-'`' ._ \-;;,_ _______ __|,4- ) )_ .;.(__`'-'__ ___ __ _ ___ _______ | | '---''(_/._)-'(_\_) | | | | | | | | | | _ | ___|_ _| | | | | |_| | | | __ _ _ | |_| | |___ | | | | | | | | | | \ \ \ \ | ___| ___| | | | _| |___| | _ | | _| \ \ \ \ | | | |___ | | | |_| | | | | | | |_ ) ) ) ) |___| |_______| |___| |_______|_______|___|_| |__|___|_______| / / / / ==================================================================/_/_/_/ ... 2019-09-11 01:58:23.156 INFO 1 --- [ main] o.s.b.w.embedded.tomcat.TomcatWebServer : Tomcat started on port(s): 8080 (http) with context path '' 2019-09-11 01:58:23.158 INFO 1 --- [ main] o.s.s.petclinic.PetClinicApplication : Started PetClinicApplication in 7.458 seconds (JVM running for 8.187) 复制代码

能够经过 http://localhost:8080/ 访问应用界面。编程

检查一下构建出的 Docker 镜像, ”petclinic-openjdk-openj9“ 的大小为 871MB,而基础镜像 ”adoptopenjdk/openjdk8“ 仅有 300MB!这货也太膨胀了!ubuntu

$ docker images petclinic-openjdk-hotspot REPOSITORY TAG IMAGE ID CREATED SIZE petclinic-openjdk-hotspot latest 469f73967d03 26 hours ago 871MB 复制代码

缘由是:为了构建 Spring 应用,咱们在镜像中引入了一系列编译时依赖,如 Git,Maven 等,并产生了大量临时的文件。然而这些内容在运行时是不须要的。

在著名的软件12要素第五条明确指出了,”Strictly separate build and run stages.“ 严格分离构建和运行阶段,不但能够帮助咱们提高应用的可追溯性,保障应用交付的一致性,同时也能够减小应用分发的体积,减小安全风险。

镜像瘦身

Docker 提供了 Multi-stage Build(多阶段构建),能够实现镜像瘦身。

咱们将镜像构建分红两个阶段:

  • 在 ”build“ 阶段依然采用 JDK 做为基础镜像,并利用 Maven 进行应用构建;
  • 在最终发布的镜像中,咱们会采用 JRE 版本做为基础镜像,并从”build“ 镜像中直接拷贝出生成的 jar 文件。这意味着在最终发布的镜像中,只包含运行时所需必要内容,不包含任何编译时依赖,大大减小了镜像体积。
$ cat Dockerfile.openjdk-slim FROM adoptopenjdk/openjdk8 AS build RUN sed -i 's/archive.ubuntu.com/mirrors.aliyun.com/' /etc/apt/sources.list RUN apt-get update RUN apt-get install -y \ git \ maven WORKDIR /tmp RUN git clone https://github.com/spring-projects/spring-petclinic.git WORKDIR /tmp/spring-petclinic RUN mvn install FROM adoptopenjdk/openjdk8:jre8u222-b10-alpine-jre COPY --from=build /tmp/spring-petclinic/target/spring-petclinic-2.1.0.BUILD-SNAPSHOT.jar spring-petclinic-2.1.0.BUILD-SNAPSHOT.jar CMD ["java","-jar","spring-petclinic-2.1.0.BUILD-SNAPSHOT.jar"] 复制代码

查看一下新镜像大小,从 871MB 减小到 167MB!

$ docker build -t petclinic-openjdk-hotspot-slim -f Dockerfile.openjdk-slim . ... $ docker images petclinic-openjdk-hotspot-slim REPOSITORY TAG IMAGE ID CREATED SIZE petclinic-openjdk-hotspot-slim latest d1f1ca316ec0 26 hours ago 167MB 复制代码

镜像瘦身以后将大大加速应用分发速度,咱们是否有办法优化应用的启动速度呢?

从 JIT 到 AOT —启动提速

为了解决 Java 启动的性能瓶颈,咱们首先须要理解 JVM 的实现原理。

为了实现“一次编写,随处运行”的能力,Java 程序会被编译成实现架构无关的字节码。JVM 在运行时将字节码转换成本地机器码执行。这个转换过程决定了 Java 应用的启动和运行速度。为了提高执行效率,JVM 引入了 JIT compiler(Just in Time Compiler,即时编译器),其中 Sun/Oracle 公司的 HotSpot 是最著名 JIT 编译器实现。

HotSpot 提供了自适应优化器,能够动态分析、发现代码执行过程当中的关键路径,并进行编译优化。HotSpot 的出现极大提高了Java 应用的执行效率,在 Java 1.4 之后成为了缺省的 VM 实现。可是 HotSpot VM 在启动时才对字节码进行编译,一方面致使启动时执行效率不高,一方面编译和优化须要不少的 CPU 资源,拖慢了启动速度。咱们是否能够优化这个过程,提高启动速度呢?

熟悉 Java 江湖历史的同窗应该会知道 IBM J9 VM,它是用于 IBM 企业级软件产品的一款高性能的 JVM,帮助 IBM 奠基了商业应用平台中间件的霸主地位。2017 年 9 月,IBM 将 J9 捐献给 Eclipse 基金会,并改名 Eclipse OpenJ9,开启开源之旅。

OpenJ9 提供了 Shared Class Cache (SCC 共享类缓存) 和 Ahead-of-Time (AOT 提早编译) 技术,显著减小了 Java 应用启动时间。

SCC 是一个内存映射文件,包含了J9 VM 对字节码的执行分析信息和已经编译生成的本地代码。开启 AOT 编译后,会将 JVM 编译结果保存在 SCC 中,在后续 JVM 启动中能够直接重用。与启动时进行的 JIT 编译相比,从 SCC 加载预编译的实现要快得多,并且消耗的资源要更少。启动时间能够获得明显改善。

咱们开始构建一个包含 AOT 优化的 Docker 应用镜像:

$cat Dockerfile.openj9.warmed FROM adoptopenjdk/openjdk8-openj9 AS build RUN sed -i 's/archive.ubuntu.com/mirrors.aliyun.com/' /etc/apt/sources.list RUN apt-get update RUN apt-get install -y \ git \ maven WORKDIR /tmp RUN git clone https://github.com/spring-projects/spring-petclinic.git WORKDIR /tmp/spring-petclinic RUN mvn install FROM adoptopenjdk/openjdk8-openj9:jre8u222-b10_openj9-0.15.1-alpine COPY --from=build /tmp/spring-petclinic/target/spring-petclinic-2.1.0.BUILD-SNAPSHOT.jar spring-petclinic-2.1.0.BUILD-SNAPSHOT.jar # Start and stop the JVM to pre-warm the class cache RUN /bin/sh -c 'java -Xscmx50M -Xshareclasses -Xquickstart -jar spring-petclinic-2.1.0.BUILD-SNAPSHOT.jar &' ; sleep 20 ; ps aux | grep java | grep petclinic | awk '{print $1}' | xargs kill -1 CMD ["java","-Xscmx50M","-Xshareclasses","-Xquickstart", "-jar","spring-petclinic-2.1.0.BUILD-SNAPSHOT.jar"] 复制代码

其中 Java 参数 -Xshareclasses 开启SCC,-Xquickstart 开启AOT。

在 Dockerfile 中,咱们运用了一个技巧来预热 SCC。在构建过程当中启动 JVM 加载应用,并开启 SCC 和 AOT,在应用启动后中止 JVM。这样就在 Docker 镜像中包含了生成的 SCC 文件。

而后,咱们来构建 Docker 镜像并启动测试应用,

$ docker build -t petclinic-openjdk-openj9-warmed-slim -f Dockerfile.openj9.warmed-slim . $ docker run --name hotspot -p 8080:8080 --rm petclinic-openjdk-openj9-warmed-slim ... 2019-09-11 03:35:20.192 INFO 1 --- [ main] o.s.b.w.embedded.tomcat.TomcatWebServer : Tomcat started on port(s): 8080 (http) with context path '' 2019-09-11 03:35:20.193 INFO 1 --- [ main] o.s.s.petclinic.PetClinicApplication : Started PetClinicApplication in 3.691 seconds (JVM running for 3.952) ... 复制代码

能够看到,启动时间已经从以前的 8.2s 减小到 4s,提高近50%。

在这个方案中,咱们一方面将耗时耗能的编译优化过程转移到构建时完成,一方面采用以空间换时间的方法,将预编译的 SCC 缓存保存到 Docker 镜像中。在容器启动时,JVM 能够直接使用内存映射文件来加载 SCC,优化了启动速度和资源占用。

这个方法另一个优点是:因为 Docker 镜像采用分层存储,同一个宿主机上的多个 Docker 应用实例会共享同一份 SCC 内存映射,能够大大减小在单机高密度部署时的内存消耗。

下面咱们作一下资源消耗的比较,咱们首先利用基于 HotSpot VM 的镜像,同时启动 4 个 Docker 应用实例,30s 后利用docker stats查看资源消耗。

$ ./run-hotspot-4.sh ... Wait a while ... CONTAINER ID NAME CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O PIDS 0fa58df1a291 instance4 0.15% 597.1MiB / 5.811GiB 10.03% 726B / 0B 0B / 0B 33 48f021d728bb instance3 0.13% 648.6MiB / 5.811GiB 10.90% 726B / 0B 0B / 0B 33 a3abb10078ef instance2 0.26% 549MiB / 5.811GiB 9.23% 726B / 0B 0B / 0B 33 6a65cb1e0fe5 instance1 0.15% 641.6MiB / 5.811GiB 10.78% 906B / 0B 0B / 0B 33 ... 复制代码

而后使用基于 OpenJ9 VM 的镜像,同时启动 4 个 Docker 应用实例,并查看资源消耗。

$ ./run-openj9-warmed-4.sh ... Wait a while ... CONTAINER ID NAME CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O PIDS 3a0ba6103425 instance4 0.09% 119.5MiB / 5.811GiB 2.01% 1.19kB / 0B 0B / 446MB 39 c07ca769c3e7 instance3 0.19% 119.7MiB / 5.811GiB 2.01% 1.19kB / 0B 16.4kB / 120MB 39 0c19b0cf9fc2 instance2 0.15% 112.1MiB / 5.811GiB 1.88% 1.2kB / 0B 22.8MB / 23.8MB 39 95a9c4dec3d6 instance1 0.15% 108.6MiB / 5.811GiB 1.83% 1.45kB / 0B 102MB / 414MB 39 ... 复制代码

与 HotSpot VM 相比,OpenJ9 的场景下应用内存占用从平均 600MB 降低到 120MB。惊喜不惊喜?

一般而言,HotSpot JIT 比 AOT 能够进行更加全面和深刻的执行路径优化,从而有更高的运行效率。为了解决这个矛盾,OpenJ9 的 AOT SCC 只在启动阶段生效,在后续运行中会继续利用JIT进行分支预测、代码内联等深度编译优化。

更多关于 OpenJ9 SCC 和 AOT 的技术介绍,请参考

  • https://www.ibm.com/developerworks/cn/java/j-class...
  • https://www.ibm.com/developerworks/cn/java/j-optim...
  • HotSpot 在 Class Data Sharing (CDS) 和 AOT 方面也有了很大进展,可是 IBM J9 在这方面更加成熟。期待阿里的 Dragonwell 也提供相应的优化支持。

思考:与 C/C++,Golang, Rust 等静态编译语言不一样,Java 采用 VM 方式运行,提高了应用可移植性的同时牺牲了部分性能。咱们是否能够将 AOT 作到极致?彻底移除字节码到本地代码的编译过程?

原生代码编译

为了将 Java 应用编译成本地可执行代码,咱们首先要解决 JVM 和应用框架在运行时的动态性挑战。JVM 提供了灵活的类加载机制,Spring 的依赖注入(DI,Dependency-injection)能够实现运行时动态类加载和绑定。在 Spring 框架中,反射,Annotation 运行时处理器等技术也被普遍应用。这些动态性一方面提高了应用架构的灵活性和易用性,另外一方面也下降了应用的启动速度,使得 AOT 原生编译和优化变得很是复杂。

为了解决这些挑战,社区有不少有趣的探索,Micronaut 是其中一个优秀表明。与 Spring 框架序不一样,Micronaut 提供了编译时的依赖注入和AOP处理能力,并最小化反射和动态代理的使用。Micronaut 应用有着更快的启动速度和更低的内存占用。更加让咱们更感兴趣的是 Micronaut 支持与 GraalVM 配合,能够将 Java 应用编译成为本地执行代码全速运行。

注:GraalVM 是 Oracle 推出的一种新型通用虚拟机,支持多种语言,能够将Java应用程序编译为本地原生应用。

下面开始咱们的探险,咱们利用 Mitz 提供的 Micronaut 版本 PetClinic 示例工程并作了一点点调整。(使用 Graal VM 19.2)

复制代码
$ git clone https://github.com/denverdino/micronaut-petclinic $ cd micronaut-petclinic 复制代码

其中 Docker 镜像的内容以下:

复制代码
$ cat Dockerfile FROM maven:3.6.1-jdk-8 as build COPY ./ /micronaut-petclinic/ WORKDIR /micronaut-petclinic RUN mvn package FROM oracle/graalvm-ce:19.2.0 as graalvm RUN gu install native-image WORKDIR /work COPY --from=build /micronaut-petclinic/target/micronaut-petclinic-*.jar . RUN native-image --no-server -cp micronaut-petclinic-*.jar FROM frolvlad/alpine-glibc EXPOSE 8080 WORKDIR /app COPY --from=graalvm /work/petclinic . CMD ["/app/petclinic"] 复制代码

其中

  • 在 "build" 阶段,利用Maven构建 Micronaut 版本的 PetClinic 应用,
  • 在 "graalvm" 阶段,咱们经过 native-image 将 PetClinic jar 文件转化成可执行文件。
  • 在最终阶段,将本地可执行文件加入一个 Alpine Linux 基础镜像,加q群:478052716 免费领取(Java架构资料,视频资料,BATJ面试资料)

构建应用

复制代码
$ docker-compose build 复制代码

启动测试数据库

复制代码
$ docker-compose up db 复制代码

启动测试应用

复制代码
$ docker-compose up app micronaut-petclinic_db_1 is up-to-date Starting micronaut-petclinic_app_1 ... done Attaching to micronaut-petclinic_app_1 app_1 | 04:57:47.571 [main] INFO org.hibernate.dialect.Dialect - HHH000400: Using dialect: org.hibernate.dialect.PostgreSQL95Dialect app_1 | 04:57:47.649 [main] INFO org.hibernate.type.BasicTypeRegistry - HHH000270: Type registration [java.util.UUID] overrides previous : org.hibernate.type.UUIDBinaryType@5f4e0f0 app_1 | 04:57:47.653 [main] INFO o.h.tuple.entity.EntityMetamodel - HHH000157: Lazy property fetching available for: com.example.micronaut.petclinic.owner.Owner app_1 | 04:57:47.656 [main] INFO o.h.e.t.j.p.i.JtaPlatformInitiator - HHH000490: Using JtaPlatform implementation: [org.hibernate.engine.transaction.jta.platform.internal.NoJtaPlatform] app_1 | 04:57:47.672 [main] INFO io.micronaut.runtime.Micronaut - Startup completed in 159ms. Server Running: http://1285c42bfcd5:8080 复制代码

应用启动速度如闪电般提高至 159ms,仅有 HotSpot VM 的1/50!

Micronaut 和 Graal VM 还在快速发展中,迁移一个 Spring 应用还有很多工做须要考虑。此外 Graal VM 的调试、监控等工具链还不够完善。可是这已经让咱们看到了曙光,Java 应用和 Serverless 的世界再也不遥远。因为篇幅有限,对 Graal VM 和Micronaut 有兴趣的同窗能够参考

  • https://docs.micronaut.io/latest/guide/index.html#...
  • https://www.exoscale.com/syslog/how-to-integrate-s...

总结与后记

做为进击的巨人,Java 技术在云原生时代也在不停地进化。在JDK 8u191 和 JDK 10 以后,JVM 加强了在 在 Docker 容器中对资源的感知。同时社区也在多个不一样方向探索 Java 技术栈的边界。JVM OpenJ9 做为传统VM的一员,在对现有 Java 应用保持高度兼容的同时,对启动速度和内存占用作了细致的优化,比较适于与现有 Spring 等微服务架构配合使用。

而 Micronaut/Graal VM 则另辟蹊径,经过改变编程模型和编译过程,将应用的动态性尽量提早到编译时期处理,极大优化了应用启动时间,在 Serverless 领域前景可期。这些设计思路都值得咱们借鉴。

在云原生时代,咱们要可以在横向的应用开发生命周期中,将开发、交付、运维过程进行有效的分割和重组,提高研发协同效率;而且要能在整个纵向软件技术栈中,在编程模型、应用运行时和基础设施等多层面进行系统优化,实现 radical simplification,提高系统效率。

相关文章
相关标签/搜索