Java虚拟机组成及原理

Java主要有如下部分组成,本文将围绕下图作进一步的解释及分析
前端


1.类加载器



上图中展现的类加载器之间的这种层次关系,称为类加载器的双亲委派模型(ParentsDelegation Model)。 双亲委派模型要求除了顶层的启动类加载器外,其他的类加载器都应当有本身的父类加载器。java

这里类加载器之间的父子关系通常不会以继承(Inheritance)的关系来实现,而是都使用组合(Composition)关系来复用父加载器的代码。程序员

  类加载器的双亲委派模型在JDK 1.2期间被引入并被普遍应用于以后几乎全部的Java程序中,但它并非一个强制性的约束模型,而是Java设计者推荐给开发者的一种类加载器实现方式。双亲委派模型的工做过程是:若是一个类加载器收到了类加载的请求,它首先不会本身去尝试加载这个类,而是把这个请求委派给父类加载器去完成,每个层次的类加载器都是如此,算法

所以全部的加载请求最终都应该传送到顶层的启动类加载器中,只有当父加载器反馈本身没法完成这个加载请求(它的搜索范围中没有找到所需的类)时,子加载器才会尝试本身去加载。后端

1.1类加载时机以下图:



 “加载”是类加载过程的一个阶段,经过一个类的全限定名来获取定义此类的二进制字节流。将这个字节流所表明的静态存储结构转化为方法区的运行时数据结构 。数组

在内存中生成一个表明这个类的java.lang.Class对象,做为方法区这个类的各类数据的访问入口。
安全

  “验证”是链接阶段的第一步,这一阶段的目的是为了确保Class文件的字节流中包含的信息符合当前虚拟机的要求,而且不会危害虚拟机自身的安全。

数据结构

  “准备”是正式为类变量分配内存并设置类变量初始值的阶段,这些变量所使用的内存都将在方法区中进行分配。 这个阶段中有两个容易产生混淆的概念须要强调一下,多线程

首先,这时候进行内存分配的仅包括类变量(被static修饰的变量),而不包括实例变量,实例变量将会在对象实例化时随着对象一块儿分配在Java堆中。并发

其次,这里所说的初始值“一般状况”下是数据类型的零值,假设一个类变量的定义为:
public static int value=123;
那变量value在准备阶段事后的初始值为0而不是123,由于这时候还没有开始执行任何Java方法,而把value赋值为123的putstatic指令是程序被编译后,

存放于类构造器<clinit>()方法之中,因此把value赋值为123的动做将在初始化阶段才会执行。

  “解析”是虚拟机将常量池内的符号引用替换为直接引用的过程,解析动做主要针对类或接口、 字段、 类方法、 接口方法、 方法类型、 方法句柄和调用点限定符7类符号引用进行,分别对应于常量池的CONSTANT_Class_info、 限定符7类符号引用进行,分别对应于常量池的CONSTANT_Class_info、 限定符7类符号引用进行,分别对应于常量池的CONSTANT_Class_info、CONSTANT_MethodHandle_info和CONSTANT_InvokeDynamic_info 7种常量类型 [1]。 下面将讲 解前面4种引用的解析过程,对于后面3种,与JDK 1.7新增的动态语言支持息息相关,因为Java语言是一门静态类型语言,所以在没有介绍invokedynamic指令的语义以前,没有办法将Java语言是一门静态类型语言,所以在没有介绍invokedynamic指令的语义以前,没有办法将“初始化”是类加载过程的最后一步,前面的类加载过程当中,除了在加载阶段用户应用程序能够经过自定义类加载器参与以外,其他动做彻底由虚拟机主导和控制。 到了初始化阶段,

才真正开始执行类中定义的Java程序代码(或者说是字节码)。

1.2虚拟机执行器

执行引擎是Java虚拟机最核心的组成部分之一。 “虚拟机”是一个相对于“物理机”的概念,这两种机器都有代码执行能力,其区别是物理机的执行引擎是直接创建在处理器、 硬件、指令集和操做系统层面上的,而虚拟机的执行引擎则是由本身实现的,所以能够自行制定指令集与执行引擎的结构体系,而且可以执行那些不被硬件直接支持的指令集格式。在Java虚拟机规范中制定了虚拟机字节码执行引擎的概念模型,这个概念模型成为各类虚拟机执行引擎的统一外观(Facade)。 在不一样的虚拟机实现里面,执行引擎在执行Java代码的时候可能会有解释执行(经过解释器执行)和编译执行(经过即时编译器产生本地代码执行)两种选择[1],也可能二者兼备,甚至还可能会包含几个不一样级别的编译器执行引擎。但从外观上看起来,全部的Java虚拟机的执行引擎都是一致的:输入的是字节码文件,处理过程是字节码解析的等效过程,输出的是执行结果,本章将主要从概念模型的角度来说解虚拟机的方法调用和字节码执行。

1.3虚拟机编译器

  Java语言的“编译期”实际上是一段“不肯定”的操做过程,由于它多是指一个前端编译器(其实叫“编译器的前端”更准确一些)把*.java文件转变成*.class文件的过程;也多是指虚拟机的后端运行期编译器(JIT编译器,Just In Time Compiler)把字节码转变成机器码的过程;还多是指使用静态提早编译器(AOT编译器,Ahead Of Time Compiler)

直接把*.java文件编译成本地机器代码的过程。 下面列举了这3类编译过程当中一些比较有表明性的编译器。

1.3.1解析与填充符号表

  解析步骤由图10-5中的parseFiles()方法(图10-5中的过程1.1)完成,解析步骤包括了经典程序编译原理中的词法分析和语法分析两个过程。

1.词法、 语法分析词法分析是将源代码的字符流转变为标记Token)集合,单个字符是程序编写过程的最小元素,而标记则是编译过程的最小元素,关键字、 变量名、 字面量、 运算符均可以成为标记,如“int a=b+2”这句代码包含了6个标记,分别是int、 a、 =、 b、 +、 2,虽然关键字int由3个字符构成,可是它只是一个Token,不可再拆分。 在Javac的源码中,词法分析过程由com.sun.tools.javac.parser.Scanner类来实现。

  语法分析是根据Token序列构造抽象语法树的过程,抽象语法树(Abstract SyntaxTree,AST)是一种用来描述程序代码语法结构的树形表示方式,语法树的每个节点都表明着程序代码中的一个语法结构(Construct),例如包、 类型、 修饰符、 运算符、 接口、 返回值甚至代码注释等均可以是一个语法结构。

1.3.2语义分析与字节码生成

  语法分析以后,编译器得到了程序代码的抽象语法树表示,语法树能表示一个结构正确的源程序的抽象,但没法保证源程序是符合逻辑的。而语义分析的主要任务是对结构上正确的源程序进行上下文有关性质的审查,如进行类型审查。 举个例子,假设有以下的3个变量定义语句:

int a=1;
boolean b=false;
char c=2;

后续可能出现的赋值运算:
int d=a+c;
int d=b+c;
char d=a+c;

  后续代码中若是出现了如上3种赋值运算的话,那它们都能构成结构正确的语法树,可是只有第1种的写法在语义上是没有问题的,可以经过编译,其他两种在Java语言中是不合逻辑的,

没法编译(是否合乎语义逻辑必须限定在具体的语言与具体的上下文环境之中才有意义。 如在C语言中,a、 b、 c的上下文定义不变,第二、 3种写法都是能够正确编译)。

1.3.3条件编译

  许多程序设计语言都提供了条件编译的途径,如C、 C++中使用预处理器指示符(#ifdef)来完成条件编译。 C、 C++的预处理器最初的任务是解决编译时的代码依赖关系(如很是经常使用的#include预处理命令),而在Java语言之中并无使用预处理器,由于Java语言自然的编译方式(编译器并不是一个个地编译Java文件,而是将全部编译单元的语法树顶级节点输入到待处理列表后再进行编译,所以各个文件之间可以互相提供符号信息)无须使用预处理器。 那Java语言是否有办法实现条件编译呢?

  Java语言固然也能够进行条件编译,方法就是使用条件为常量的if语句。 如如下代码所示,此代码中的if语句不一样于其余Java代码,它在编译阶段就会被“运行”,生成的字节码
之中只包括“System.out.println("block 1");”一条语句,并不会包含if语句及另一个分子中的“System.out.println("block 2");”

1
2
3
4
5
6
public static void main(String[]args){
if(true) {
  System.out.println( "block 1" );
 } else {
   System.out.println( "block 2" );
 }

}

1.4Java堆

  对于大多数应用来讲,Java堆(Java Heap)是Java虚拟机所管理的内存中最大的一块。Java堆是被全部线程共享的一块内存区域,在虚拟机启动时建立。 此内存区域的惟一目的就是存放对象实例,几乎全部的对象实例都在这里分配内存。 这一点在Java虚拟机规范中的描述是:全部的对象实例以及数组都要在堆上分配[1],可是随着JIT编译器的发展与逃逸分析技术逐渐成熟,栈上分配、标量替换[2]优化技术将会致使一些微妙的变化发生,全部的对象都分配在堆上也渐渐变得不是那么“绝对”了。


  Java堆是垃圾收集器管理的主要区域,所以不少时候也被称作“GC堆”(GarbageCollected Heap,幸亏国内没翻译成“垃圾堆”)。 从内存回收的角度来看,因为如今收集器基本都采用分代收集算法,因此Java堆中还能够细分为:新生代和老年代;再细致一点的有Eden空间、 From Survivor空间、 To Survivor空间等。 从内存分配的角度来看,线程共享的Java堆中可能划分出多个线程私有的分配缓冲区(Thread Local Allocation Buffer,TLAB)。 不过不管如何划分,都与存放内容无关,不管哪一个区域,存储的都仍然是对象实例,进一步划分的目的是为了更好地回收内存,或者更快地分配内存。

  根据Java虚拟机规范的规定,Java堆能够处于物理上不连续的内存空间中,只要逻辑上是连续的便可,就像咱们的磁盘空间同样。 在实现时,既能够实现成固定大小的,也能够是可扩展的,不过当前主流的虚拟机都是按照可扩展来实现的(经过-Xmx和-Xms控制)。 若是在堆中没有内存完成实例分配,而且堆也没法再扩展时,将会抛出OutOfMemoryError异常。


1.5Java栈

  与程序计数器同样,Java虚拟机栈(Java Virtual Machine Stacks)也是线程私有的,它的生命周期与线程相同。 虚拟机栈描述的是Java方法执行的内存模型:每一个方法在执行的同时都会建立一个栈帧(Stack Frame[1])用于存储局部变量表、 操做数栈、 动态连接、 方法出口等信息。 每个方法从调用直至执行完成的过程,就对应着一个栈帧在虚拟机栈中入栈到出栈的过程。


  常常有人把Java内存区分为堆内存(Heap)和栈内存(Stack),这种分法比较粗糙,Java内存区域的划分实际上远比这复杂。 这种划分方式的流行只能说明大多数程序员最关注的、与对象内存分配关系最密切的内存区域是这两块。 其中所指的“堆”笔者在后面会专门讲述,而所指的“栈”就是如今讲的虚拟机栈,或者说是虚拟机栈中局部变量表部分。


  局部变量表存放了编译期可知的各类基本数据类型(boolean、 byte、 char、 short、 int、float、 long、 double)、 对象引用(reference类型,它不等同于对象自己,多是一个指向对象起始地址的引用指针,也多是指向一个表明对象的句柄或其余与此对象相关的位置)和returnAddress类型(指向了一条字节码指令的地址)。


  其中64位长度的long和double类型的数据会占用2个局部变量空间(Slot),其他的数据类型只占用1个。 局部变量表所需的内存空间在编译期间完成分配,当进入一个方法时,这个方法须要在帧中分配多大的局部变量空间是彻底肯定的,在方法运行期间不会改变局部变量表的大小。

  在Java虚拟机规范中,对这个区域规定了两种异常情况:若是线程请求的栈深度大于虚拟机所容许的深度,将抛出StackOverflowError异常;若是虚拟机栈能够动态扩展(当前大部分的Java虚拟机均可动态扩展,只不过Java虚拟机规范中也容许固定长度的虚拟机栈),若是扩展时没法申请到足够的内存,就会抛出OutOfMemoryError异常。

1.5.1栈帧

  用于支持虚拟机进行方法调用和方法执行的数据结构,它是虚拟机运行时数据区中的虚拟机栈(Virtual Machine Stack)[1]的栈元素。 栈帧存储了方法的局部变量表、 操做数栈、动态链接和方法返回地址等信息。 每个方法从调用开始至执行完成的过程,都对应着一个栈帧在虚拟机栈里面从入栈到出栈的过程。


一个线程中的方法调用链可能会很长,不少方法都同时处于执行状态。 对于执行引擎来讲,在活动线程中,只有位于栈顶的栈帧才是有效的,称为当前栈帧(Current StackFrame),与这个栈帧相关联的方法称为当前方法(Current Method)。 执行引擎运行的全部字节码指令都只针对当前栈帧进行操做,在概念模型上,典型的栈帧结构如图8-1所示。

1.5.2操做数栈

  常称为操做栈,它是一个后入先出(Last In FirstOut,LIFO)栈。 同局部变量表同样,操做数栈的最大深度也在编译的时候写入到Code属性的max_stacks数据项中。操做数栈的每个元素能够是任意的Java数据类型,包括long和double。 32位数据类型所占的栈容量为1,64位数据类型所占的栈容量为2。 在方法执行的任什么时候候,操做数栈的深度都不会超过在max_stacks数据项中设定的最大值。

  当一个方法刚刚开始执行的时候,这个方法的操做数栈是空的,在方法的执行过程当中,会有各类字节码指令往操做数栈中写入和提取内容,也就是出栈/入栈操做。

例如,在作算术运算的时候是经过操做数栈来进行的,又或者在调用其余方法的时候是经过操做数栈来进行参数传递的。举个例子,整数加法的字节码指令iadd在运行的时候操做数栈中最接近栈顶的两个元素已经存入了两个int型的数值,当执行这个指令时,会将这两个int值出栈并相加,而后将相加的结果入栈。

1.5.3局部变量表

是一组变量值存储空间,用于存放方法参数和方法内部定义的局部变量。 在Java程序编译为Class文件时,就在方法的Code属性的max_locals数据项中肯定了该方法所须要分配的局部变量表的最大容量。

1.5.4动态连接

  每一个栈帧都包含一个指向运行时常量池[1]中该栈帧所属方法的引用,持有这个引用是为了支持方法调用过程当中的动态链接(Dynamic Linking)。经过第6章的讲解,咱们知道Class文件的常量池中存有大量的符号引用,字节码中的方法调用指令就以常量池中指向方法的符号引用做为参数。 这些符号引用一部分会在类加载阶段或者第一次使用的时候就转化为直接引用,这种转化称为静态解析。另一部分将在每一次运行期间转化为直接引用,这部分称为动态链接。

1.5.5方法返回地址

  当一个方法开始执行后,只有两种方式能够退出这个方法。 第一种方式是执行引擎遇到任意一个方法返回的字节码指令,这时候可能会有返回值传递给上层的方法调用者(调用当前方法的方法称为调用者),是否有返回值和返回值的类型将根据遇到何种方法返回指令来决定,这种退出方法的方式称为正常完成出口(Normal Method Invocation Completion)。


  另一种退出方式是,在方法执行过程当中遇到了异常,而且这个异常没有在方法体内获得处理,不管是Java虚拟机内部产生的异常,仍是代码中使用athrow字节码指令产生的异常,

只要在本方法的异常表中没有搜索到匹配的异常处理器,就会致使方法退出,这种退出方法的方式称为异常完成出口(Abrupt Method Invocation Completion)。 一个方法使用异常完成出口的方式退出,是不会给它的上层调用者产生任何返回值的。

  不管采用何种退出方式,在方法退出以后,都须要返回到方法被调用的位置,程序才能继续执行,方法返回时可能须要在栈帧中保存一些信息,用来帮助恢复它的上层方法的执行状态。

通常来讲,方法正常退出时,调用者的PC计数器的值能够做为返回地址,栈帧中极可能会保存这个计数器值。 而方法异常退出时,返回地址是要经过异常处理器表来肯定的,栈帧中通常不会保存这部分信息。


  方法退出的过程实际上就等同于把当前栈帧出栈,所以退出时可能执行的操做有:恢复上层方法的局部变量表和操做数栈,把返回值(若是有的话)压入调用者栈帧的操做数栈中,调整PC计数器的值以指向方法调用指令后面的一条指令等。

1.6方法区

  方法区(Method Area)与Java堆同样,是各个线程共享的内存区域,它用于存储已被虚拟机加载的类信息、 常量、 静态变量、 即时编译器编译后的代码等数据。 虽然Java虚拟机规范把方法区描述为堆的一个逻辑部分,可是它却有一个别名叫作Non-Heap(非堆),目的应该是与Java堆区分开来。


  对于习惯在HotSpot虚拟机上开发、 部署程序的开发者来讲,不少人都更愿意把方法区称为“永久代”(Permanent Generation),本质上二者并不等价,仅仅是由于HotSpot虚拟机的设计团队选择把GC分代收集扩展至方法区,或者说使用永久代来实现方法区而已,这样HotSpot的垃圾收集器能够像管理Java堆同样管理这部份内存,可以省去专门为方法区编写内存管理代码的工做。 对于其余虚拟机(如BEA JRockit、 IBM J9等)来讲是不存在永久代的概念的。 原则上,如何实现方法区属于虚拟机实现细节,不受虚拟机规范约束,但使用永久代来实现方法区,如今看来并非一个好主意,由于这样更容易遇到内存溢出问题(永久代有-XX:MaxPermSize的上限,J9和JRockit只要没有触碰到进程可用内存的上限,例如32位系统中的4GB,就不会出现问题),并且有极少数方法(例如String.intern())会因这个缘由致使不一样虚拟机下有不一样的表现。 所以,对于HotSpot虚拟机,根据官方发布的路线图信息,如今也有放弃永久代并逐步改成采用Native Memory来实现方法区

的规划了[1],在目前已经发布的JDK 1.7的HotSpot中,已经把本来放在永久代的字符串常量池移出,JDK8已经将永久代被替换成元空间,直接使用堆外内存。

  Java虚拟机规范对方法区的限制很是宽松,除了和Java堆同样不须要连续的内存和能够选择固定大小或者可扩展外,还能够选择不实现垃圾收集。 相对而言,垃圾收集行为在这个区域是比较少出现的,但并不是数据进入了方法区就如永久代的名字同样“永久”存在了。 这区域的内存回收目标主要是针对常量池的回收和对类型的卸载,通常来讲,这个区域的回收“成绩”比较难以使人满意,尤为是类型的卸载,条件至关苛刻,可是这部分区域的回收确实是必要的。 在Sun公司的BUG列表中,曾出现过的若干个严重的BUG就是因为低版本的HotSpot虚拟机对此区域未彻底回收而致使内存泄漏。根据Java虚拟机规范的规定,当方法区没法知足内存分配需求时,将抛出OutOfMemoryError异常。

  运行时常量池(Runtime Constant Pool)是方法区的一部分。 Class文件中除了有类的版本、 字段、 方法、 接口等描述信息外,还有一项信息是常量池(Constant Pool Table),用于存放编译期生成的各类字面量和符号引用,这部份内容将在类加载后进入方法区的运行时常量池中存放。

1.7程序计数器

  程序计数器(Program Counter Register)是一块较小的内存空间,它能够看做是当前线程所执行的字节码的行号指示器。 在虚拟机的概念模型里(仅是概念模型,各类虚拟机可能会经过一些更高效的方式去实现),字节码解释器工做时就是经过改变这个计数器的值来选取下一条须要执行的字节码指令,分支、 循环、 跳转、 异常处理、 线程恢复等基础功能都须要依赖这个计数器来完成。


  因为Java虚拟机的多线程是经过线程轮流切换并分配处理器执行时间的方式来实现的,在任何一个肯定的时刻,一个处理器(对于多核处理器来讲是一个内核)都只会执行一条线程中的指令。所以,为了线程切换后能恢复到正确的执行位置,每条线程都须要有一个独立的程序计数器,各条线程之间计数器互不影响,独立存储,咱们称这类内存区域为“线程私有”的内存。


  若是线程正在执行的是一个Java方法,这个计数器记录的是正在执行的虚拟机字节码指令的地址;若是正在执行的是Native方法,这个计数器值则为空(Undefined)。 此内存区域是惟一一个在Java虚拟机规范中没有规定任何OutOfMemoryError状况的区域。

1.8垃圾回收器

  提及垃圾收集(Garbage Collection,GC),大部分人都把这项技术当作Java语言的伴生产物。 事实上,GC的历史比Java久远,1960年诞生于MIT的Lisp是第一门真正使用内存动态分配和垃圾收集技术的语言。

当Lisp还在胚胎时期时,人们就在思考GC须要完成的3件事情:哪些内存须要回收?何时回收?如何回收?

1.8.1 垃圾回收器相关算法

1.8.1.1标记清清除算法

  最基础的收集算法是“标记-清除”(Mark-Sweep)算法,如同它的名字同样,算法分为“标记”和“清除”两个阶段:首先标记出全部须要回收的对象,在标记完成后统一回收全部被标记的对象,它的标记过程其实在前一节讲述对象标记断定时已经介绍过了。 之因此说它是最基础的收集算法,是由于后续的收集算法都是基于这种思路并对其不足进行改进而获得的。 它的主要不足有两个:

一个是效率问题,标记和清除两个过程的效率都不高;另外一个是空间问题,标记清除以后会产生大量不连续的内存碎片,空间碎片太多可能会致使之后在程序运行过程当中须要分配较大对象时,没法找到足够的连续内存而不得不提早触发另外一次垃圾收集动做。 标记—清除算法的执行过程以下图所示。

1.8.1.2复制算法

  为了解决效率问题,一种称为“复制”(Copying)的收集算法出现了,它将可用内存按容量划分为大小相等的两块,每次只使用其中的一块。 当这一块的内存用完了,就将还存活着的对象复制到另一块上面,而后再把已使用过的内存空间一次清理掉。 这样使得每次都是对整个半区进行内存回收,内存分配时也就不用考虑内存碎片等复杂状况,只要移动堆顶指针,按顺序分配内存便可,实现简单,运行高效。 只是这种算法的代价是将内存缩小为了原来的一半,未免过高了一点。 复制算法的执行过程以下图所示。

1.8.1.3标记整理算法

  复制收集算法在对象存活率较高时就要进行较多的复制操做,效率将会变低。 更关键的是,若是不想浪费50%的空间,就须要有额外的空间进行分配担保,以应对被使用的内存中全部对象都100%存活的极端状况,因此在老年代通常不能直接选用这种算法。根据老年代的特色,有人提出了另一种“标记-整理”(Mark-Compact)算法,标记过程仍然与“标记-清除”算法同样,但后续步骤不是直接对可回收对象进行清理,而是让全部存活的对象都向一端移动,而后直接清理掉端边界之外的内存,“标记-整理”算法的示意图以下图所示。

1.8.2Serial收集器

  Serial收集器是最基本、 发展历史最悠久的收集器,曾经(在JDK 1.3.1以前)是虚拟机新生代收集的惟一选择。 你们看名字就会知道,这个收集器是一个单线程的收集器,但它的“单线程”的意义并不只仅说明它只会使用一个CPU或一条收集线程去完成垃圾收集工做,更重要的是在它进行垃圾收集时,必须暂停其余全部的工做线程,直到它收集结束。 “StopThe World”这个名字也许听起来很酷,但这项工做其实是由虚拟机在后台自动发起和自动完成的,在用户不可见的状况下把用户正常工做的线程所有停掉,这对不少应用来讲都是难以接受的。 读者不妨试想一下,要是你的计算机每运行一个小时就会暂停响应5分钟,你会有什么样的心情?以下图示意了Serial/Serial Old收集器的运行过程。

1.8.3ParNew收集器

  ParNew收集器其实就是Serial收集器的多线程版本,除了使用多条线程进行垃圾收集以外,其他行为包括Serial收集器可用的全部控制参数(例如:-XX:SurvivorRatio、 -XX:PretenureSizeThreshold、-XX:HandlePromotionFailure等)、 收集算法、 Stop The World、 对象分配规则、 回收策略等都与Serial收集器彻底同样,在实现上,这两种收集器也共用了至关多的代码。 ParNew收集器的工做过程以下图所示。

1.8.4Parallel Scavenge收集器

  Parallel Scavenge收集器是一个新生代收集器,它也是使用复制算法的收集器,又是并行的多线程收集器……看上去和ParNew都同样,那它有什么特别之处呢?


  Parallel Scavenge收集器的特色是它的关注点与其余收集器不一样,CMS等收集器的关注点是尽量地缩短垃圾收集时用户线程的停顿时间,而Parallel Scavenge收集器的目标则是达到一个可控制的吞吐量

(Throughput)。 所谓吞吐量就是CPU用于运行用户代码的时间与CPU总消耗时间的比值,即吞吐量=运行用户代码时间/(运行用户代码时间+垃圾收集时间),虚拟机总共运行了100分钟,其中垃圾收集花掉1分钟,那吞吐量就是99%。


  停顿时间越短就越适合须要与用户交互的程序,良好的响应速度能提高用户体验,而高吞吐量则能够高效率地利用CPU时间,尽快完成程序的运算任务,主要适合在后台运算而不须要太多交互的任务。  

Parallel Scavenge收集器提供了两个参数用于精确控制吞吐量,分别是控制最大垃圾收集停顿时间的-XX:MaxGCPauseMillis参数以及直接设置吞吐量大小的-XX:GCTimeRatio参数。

  MaxGCPauseMillis参数容许的值是一个大于0的毫秒数,收集器将尽量地保证内存回收花费的时间不超过设定值。 不过你们不要认为若是把这个参数的值设置得稍小一点就能使得系统的垃圾收集速度变得更快,GC停顿时间缩短是以牺牲吞吐量和新生代空间来换取的:系统把新生代调小一些,收集300MB新生代确定比收集500MB快吧,这也直接致使垃圾收集发生得更频繁一些,原来10秒收集一次、 每次停顿100毫秒,如今变成5秒收集一次、 每次停顿70毫秒。 停顿时间的确在降低,但吞吐量也降下来了。


  GCTimeRatio参数的值应当是一个大于0且小于100的整数,也就是垃圾收集时间占总时间的比率,至关因而吞吐量的倒数。 若是把此参数设置为19,那容许的最大GC时间就占总时间的5%(即1/(1+19)),默认值为99,就是容许最大1%(即1/(1+99))的垃圾收集时间。


  因为与吞吐量关系密切,Parallel Scavenge收集器也常常称为“吞吐量优先”收集器。 除上述两个参数以外,Parallel Scavenge收集器还有一个参数-XX:+UseAdaptiveSizePolicy值得关注。 这是一个开关参数,当这个参数打开以后,就不须要手工指定新生代的大小(-Xmn)、Eden与Survivor区的比例(-XX:SurvivorRatio)、 晋升老年代对象年龄(-XX:PretenureSizeThreshold)等细节参数了,虚拟机会根据当前系统的运行状况收集性能监控信息,动态调整这些参数以提供最合适的停顿时间或者最大的吞吐量,这种调节方式称为GC自适应的调节策略(GC Ergonomics)[1]。 若是读者对于收集器运做原来不太了解,手工优化存在困难的时候,使用Parallel Scavenge收集器配合自适应调节策略,把内存管理的调优任务交给虚拟机去完成将是一个不错的选择。 只须要把基本的内存数据设置好(如-Xmx设置最大堆),而后使用axGCPauseMillis参数(更关注最大停顿时间)或GCTimeRatio(更关注吞吐量)参数给虚拟机设立一个优化目标,那具体细节参数的调节工做就由虚拟机完成了。 自适应调节策略也是Parallel Scavenge收集器与ParNew收集器的一个重要区别。

1.8.5CMS收集器

  CMS(Concurrent Mark Sweep)收集器是一种以获取最短回收停顿时间为目标的收集器。 目前很大一部分的Java应用集中在互联网站或者B/S系统的服务端上,这类应用尤为重视服务的响应速度,但愿系统停顿时间最短,以给用户带来较好的体验。 CMS收集器就很是符合这类应用的需求。从名字(包含“Mark Sweep”)上就能够看出,CMS收集器是基于“标记—清除”算法实现的,它的运做过程相对于前面几种收集器来讲更复杂一些,整个过程分为4个步骤,包括:

初始标记(CMS initial mark)
并发标记(CMS concurrent mark)
从新标记(CMS remark)
并发清除(CMS concurrent sweep)


  其中,初始标记、 从新标记这两个步骤仍然须要“Stop The World”。 初始标记仅仅只是标记一下GC Roots能直接关联到的对象,速度很快,并发标记阶段就是进行GC RootsTracing的过程,而从新标记阶段则是为了修正并发标记期间因用户程序继续运做而致使标记产生变更的那一部分对象的标记记录,这个阶段的停顿时间通常会比初始标记阶段稍长一些,但远比并发标记的时间短。

  因为整个过程当中耗时最长的并发标记和并发清除过程收集器线程均可以与用户线程一块儿工做,因此,从整体上来讲,CMS收集器的内存回收过程是与用户线程一块儿并发执行的。 经过下图能够比较清楚地

看到CMS收集器的运做步骤中并发和须要停顿的时间。 


CMS是一款优秀的收集器,它的主要优势在名字上已经体现出来了:并发收集、 低停顿,Sun公司的一些官方文档中也称之为并发低停顿收集器(Concurrent Low PauseCollector)。

可是CMS还远达不到完美的程度,它有如下3个明显的缺点:

  CMS收集器对CPU资源很是敏感。 其实,面向并发设计的程序都对CPU资源比较敏感。在并发阶段,它虽然不会致使用户线程停顿,可是会由于占用了一部分线程(或者说CPU资源)而致使应用程序变慢,总吞吐量会下降。 CMS默认启动的回收线程数是(CPU数量+3)/4,也就是当CPU在4个以上时,并发回收时垃圾收集线程很多于25%的CPU资源,而且随着CPU数量的增长而降低。可是当CPU不足4个(譬如2个)时,CMS对用户程序的影响就可能变得很大,若是原本CPU负载就比较大,还分出一半的运算能力去执行收集器线程,就可能致使用户程序的执行速度突然下降了50%,其实也让人没法接受。 为了应付这种状况,虚拟机提供了一种称为“增量式并发收集器”(Incremental Concurrent Mark Sweep/i-CMS)的CMS收集器变种,所作的事情和单CPU年代PC机操做系统使用抢占式来模拟多任务机制的思想同样,就是在并发标记、 清理的时候让GC线程、 用户线程交替运行,尽可能减小GC线程的独占资源的时间,这样整个垃圾收集的过程会更长,但对用户程序的影响就会显得少一些,也就是速度降低没有那么明显。实践证实,增量时的CMS收集器效果很通常,在目前版本中,i-CMS已经被声明为“deprecated”,即再也不提倡用户使用。

  CMS收集器没法处理浮动垃圾(Floating Garbage),可能出现“Concurrent ModeFailure”失败而致使另外一次Full GC的产生。 因为CMS并发清理阶段用户线程还在运行着,伴随程序运行天然就还会有新的垃圾不断产生,这一部分垃圾出如今标记过程以后,CMS没法在当次收集中处理掉它们,只好留待下一次GC时再清理掉。 这一部分垃圾就称为“浮动垃圾”。也是因为在垃圾收集阶段用户线程还须要运行,那也就还须要预留有足够的内存空间给用户线程使用,所以CMS收集器不能像其余收集器那样等到老年代几乎彻底被填满了再进行收集,须要预留一部分空间提供并发收集时的程序运做使用。 在JDK 1.5的默认设置下,CMS收集器当老年代使用了68%的空间后就会被激活,这是一个偏保守的设置,若是在应用中老年代增加不是太快,能够适当调高参数-XX:CMSInitiatingOccupancyFraction的值来提升触发百分比,以便下降内存回收次数从而获取更好的性能,在JDK 1.6中,CMS收集器的启动阈值已经提高至92%。 要是CMS运行期间预留的内存没法知足程序须要,就会出现一次“Concurrent Mode Failure”失败,这时虚拟机将启动后备预案:临时启用Serial Old收集器来从新进行老年代的垃圾收集,这样停顿时间就很长了。 因此说参数-XX:CMSInitiatingOccupancyFraction设置得过高很容易致使大量“Concurrent Mode Failure”失败,性能反而下降。


  还有最后一个缺点,在本节开头说过,CMS是一款基于“标记—清除”算法实现的收集器,若是读者对前面这种算法介绍还有印象的话,就可能想到这意味着收集结束时会有大量空间碎片产生。空间碎片过多时,将会给大对象分配带来很大麻烦,每每会出现老年代还有很大空间剩余,可是没法找到足够大的连续空间来分配当前对象,不得不提早触发一次FullGC。 为了解决这个问题,CMS收集器提供了一个-XX:+UseCMSCompactAtFullCollection开关参数(默认就是开启的),用于在CMS收集器顶不住要进行FullGC时开启内存碎片的合并整理过程,内存整理的过程是没法并发的,空间碎片问题没有了,但停顿时间不得不变长。虚拟机设计者还提供了另一个参数-XX:CMSFullGCsBeforeCompaction,这个参数是用于设置执行多少次不压缩的Full GC后,跟着来一次带压缩的(默认值为0,表示每次进入FullGC时都进行碎片整理)。

1.8.6G1收集器

  G1(Garbage-First)收集器是当今收集器技术发展的最前沿成果之一,早在JDK 1.7刚刚确立项目目标,Sun公司给出的JDK 1.7 RoadMap里面,它就被视为JDK 1.7中HotSpot虚拟机的一个重要进化特征。 从JDK 6u14中开始就有Early Access版本的G1收集器供开发人员实验、 试用,由此开始G1收集器的“Experimental”状态持续了数年时间,直至JDK 7u4,Sun公司才认为它达到足够成熟的商用程度,移除了“Experimental”的标识。 

 G1是一款面向服务端应用的垃圾收集器。 HotSpot开发团队赋予它的使命是(在比较长期的)将来能够替换掉JDK 1.5中发布的CMS收集器。 与其余GC收集器相比,G1具有以下特色。

  并行与并发:G1能充分利用多CPU、 多核环境下的硬件优点,使用多个CPU(CPU或者CPU核心)来缩短Stop-The-World停顿的时间,部分其余收集器本来须要停顿Java线程执行的GC动做,G1收集器仍然能够经过并发的方式让Java程序继续执行。


  分代收集:与其余收集器同样,分代概念在G1中依然得以保留。 虽然G1能够不须要其余收集器配合就能独立管理整个GC堆,但它可以采用不一样的方式去处理新建立的对象和已经存活了一段时间、熬过屡次GC的旧对象以获取更好的收集效果。

  空间整合:与CMS的“标记—清理”算法不一样,G1从总体来看是基于“标记—整理”算法实现的收集器,从局部(两个Region之间)上来看是基于“复制”算法实现的,但不管如何,

这两种算法都意味着G1运做期间不会产生内存空间碎片,收集后能提供规整的可用内存。 这种特性有利于程序长时间运行,分配大对象时不会由于没法找到连续内存空间而提早触发下一次GC。可预测的停顿:这是G1相对于CMS的另外一大优点,下降停顿时间是G1和CMS共同的关注点,但G1除了追求低停顿外,还能创建可预测的停顿时间模型,能让使用者明确指定在一个长度为M毫秒的时间片断内,消耗在垃圾收集上的时间不得超过N毫秒,这几乎已是实时Java(RTSJ)的垃圾收集器的特征了。

  在G1以前的其余收集器进行收集的范围都是整个新生代或者老年代,而G1再也不是这样。 使用G1收集器时,Java堆的内存布局就与其余收集器有很大差异,它将整个Java堆划分为多个大小相等的独立区域(Region),虽然还保留有新生代和老年代的概念,但新生代和老年代再也不是物理隔离的了,它们都是一部分Region(不须要连续)的集合。

  G1收集器之因此能创建可预测的停顿时间模型,是由于它能够有计划地避免在整个Java堆中进行全区域的垃圾收集。 G1跟踪各个Region里面的垃圾堆积的价值大小(回收所得到的空间大小以及回收所需时间的经验值),在后台维护一个优先列表,每次根据容许的收集时间,优先回收价值最大的Region(这也就是Garbage-First名称的来由)。 这种使用Region划份内存空间以及有优先级的区域回收方式,保证了G1收集器在有限的时间内能够获取尽量高的收集效率。 

 G1把内存“化整为零”的思路,理解起来彷佛很容易,但其中的实现细节却远远没有想象中那样简单,不然也不会从2004年Sun实验室发表第一篇G1的论文开始直到今天(将近10年时间)才开发出G1的商用版。 笔者以一个细节为例:把Java堆分为多个Region后,垃圾收集是否就真的能以Region为单位进行了?听起来瓜熟蒂落,再仔细想一想就很容易发现问题所在:Region不多是孤立的。 一个对象分配在某个Region中,它并不是只能被本Region中的其余对象引用,而是能够与整个Java堆任意的对象发生引用关系。 

      那在作可达性断定肯定对象是否存活的时候,岂不是还得扫描整个Java堆才能保证准确性?这个问题其实并不是在G1中才有,只是在G1中更加突出而已。 在之前的分代收集中,新生代的规模通常都比老年代要小许多,新生代的收集也比老年代要频繁许多,那回收新生代中的对象时也面临相同的问题,若是回收新生代时也不得不一样时扫描老年代的话,那么Minor GC的效率可能降低很多。在G1收集器中,Region之间的对象引用以及其余收集器中的新生代与老年代之间的对象引用,虚拟机都是使用Remembered Set来避免全堆扫描的。 G1中每一个Region都有一个与之对应的Remembered Set,虚拟机发现程序在对Reference类型的数据进行写操做时,会产生一个Write Barrier暂时中断写操做,检查Reference引用的对象是否处于不一样的Region之中(在分代的例子中就是检查是否老年代中的对象引用了新生代中的对象),若是是,便经过CardTable把相关引用信息记录到被引用对象所属的Region的Remembered Set之中。 当进行内存回收时,在GC根节点的枚举范围中加入Remembered Set便可保证不对全堆扫描也不会有遗漏。若是不计算维护Remembered Set的操做,G1收集器的运做大体可划分为如下几个步骤:

初始标记(Initial Marking)
并发标记(Concurrent Marking)
最终标记(Final Marking)
筛选回收(Live Data Counting and Evacuation) 

对CMS收集器运做过程熟悉的读者,必定已经发现G1的前几个步骤的运做过程和CMS有不少类似之处。 初始标记阶段仅仅只是标记一下GC Roots能直接关联到的对象,而且修改TAMS(NextTop at Mark Start)的值,让下一阶段用户程序并发运行时,能在正确可用的Region中建立新对象,这阶段须要停顿线程,但耗时很短。 并发标记阶段是从GC Root开始对堆中对象进行可达性分析,找出存活的对象,这阶段耗时较长,但可与用户程序并发执行。 而最终标记阶段则是为了修正在并发标记期间因用户程序继续运做而致使标记产生变更的那一部分标记记录,虚拟机将这段时间对象变化记录在线程Remembered Set Logs里面,最终标记阶段须要把Remembered Set Logs的数据合并到Remembered Set中,这阶段须要停顿线程,可是可并行执行。 最后在筛选回收阶段首先对各个Region的回收价值和成本进行排序,根据用户所指望的GC停顿时间来制定回收计划,从Sun公司透露出来的信息来看,这个阶段其实也能够作到与用户程序一块儿并发执行,可是由于只回收一部分Region,时间是用户可控制的,并且停顿用户线程将大幅提升收集效率。 经过下图能够比较清楚地看到G1收集器的运做步骤中并发和须要停顿的阶段。

相关文章
相关标签/搜索