举例:将i = a + b * c做为源代码输入到解析器里,则广义上的解析器的工做流程以下图:javascript
发表时间:2009-10-17 最后修改:2011-03-04
大前天收到一条PM:
引用
你好,很冒昧的向你发短消息,我如今在看JS引擎,能过看博客发现你对js engine很了解,我想请教一下你 基于栈的解析器与基于寄存器的解析器有什么同,javascriptcore是基于寄存器的,V8是基于栈的,能不能说一下这二者有什么同样吗?能推荐一点资料吗?谢谢。
我刚收到的时候很兴奋,就开始写回复。写啊写发觉已经比我平时发的帖还要长了,想着干脆把回复直接发出来好了。因而下面就是回复:
你好 ^ ^ 很抱歉拖了这么久才回复。码字和画图太耗时间了。 别说冒昧了,我只是个普通的刚毕业的学生而已,担当不起啊 =_=|||| 并且我也不敢说“很”了解,只是有所接触而已。很高兴有人来一块儿讨论JavaScript引擎的设计与实现,总以为身边对这个有兴趣的人很少,或者是不多冒出来讨论。若是你发个帖或者blog来讨论这方面的内容我也会很感兴趣的~ 想拿出几点来讨论一下。上面提出的问题我但愿可以一一给予回答,不过首先得作些铺垫。 另外先提一点:JavaScriptCore从SquirrelFish版开始是“基于寄存器”的,V8则不适合用“基于栈”或者“基于寄存器”的说法来描述。 一、解析器与解释器 解析器是parser,而解释器是interpreter。二者不是同同样东西,不该该混用。 前者是编译器/解释器的重要组成部分,也能够用在IDE之类的地方;其主要做用是进行语法分析,提取出句子的结构。广义来讲输入通常是程序的源码,输出通常是语法树(syntax tree,也叫parse tree等)或抽象语法树(abstract syntax tree,AST)。进一步剥开来,广义的解析器里通常会有扫描器(scanner,也叫tokenizer或者lexical analyzer,词法分析器),以及狭义的解析器(parser,也叫syntax analyzer,语法分析器)。扫描器的输入通常是文本,通过词法分析,输出是将文本切割为单词的流。狭义的解析器输入是单词的流,通过语法分析,输出是语法树或者精简过的AST。 (在一些编译器/解释器中,解析也可能与后续的语义分析、代码生成或解释执行等步骤融合在一块儿,不必定真的会构造出完整的语法树。但概念上说解析器就是用来抽取句子结构用的,而语法树就是表示句子结构的方式。关于边解析边解释执行的例子,能够看看这帖的计算器。) 举例:将i = a + b * c做为源代码输入到解析器里,则广义上的解析器的工做流程以下图: ![]() 后者则是实现程序执行的一种实现方式,与编译器相对。它直接实现程序源码的语义,输入是程序源码,输出则是执行源码获得的计算结果;编译器的输入与解释器相同,而输出是用别的语言实现了输入源码的语义的程序。一般编译器的输入语言比输出语言高级,但不必定;也有输入输出是同种语言的状况,此时编译器极可能主要用于优化代码。 举例:把一样的源码分别输入到编译器与解释器中,获得的输出不一样: ![]() 在不少地方都看到解析器与解释器两个不一样的东西被混为一谈,感到十分无奈。 最近某本引发不少关注的书便在开篇给读者们当头一棒,介绍了“JavaScript解析机制”。“编译”和“预处理”也顺带混为一谈了,还有“预编译” 0_0 我一直觉得“预编译”应该是ahead-of-time compilation的翻译,是与“即时编译”(just-in-time compilation,JIT)相对的概念。另外就是PCH(precompile header)这种用法,把之前的编译结果缓存下来称为“预编译”。把AOT、PCH跟“预处理”(preprocess)混为一谈真是诡异。算了,我仍是不要淌这浑水的好……打住。 二、“解释器”究竟是什么?“解释型语言”呢? 不少资料会说,Python、Ruby、JavaScript都是“解释型语言”,是经过解释器来实现的。这么说其实很容易引发误解:语言通常只会定义其抽象语义,而不会强制性要求采用某种实现方式。 例如说C通常被认为是“编译型语言”,但C的解释器也是存在的,例如Ch。一样,C++也有解释器版本的实现,例如Cint。 通常被称为“解释型语言”的是主流实现为解释器的语言,但并非说它就没法编译。例如说常常被认为是“解释型语言”的Scheme就有好几种编译器实现,其中率先支持R6RS规范的大部份内容的是Ikarus,支持在x86上编译Scheme;它最终不是生成某种虚拟机的字节码,而是直接生成x86机器码。 解释器就是个黑箱,输入是源码,输出就是输入程序的执行结果,对用户来讲中间没有独立的“编译”步骤。这很是抽象,内部是怎么实现的都不要紧,只要能实现语义就行。你能够写一个C语言的解释器,里面只是先用普通的C编译器把源码编译为in-memory image,而后直接调用那个image去获得运行结果;用户拿过去,发现直接输入源码能够获得源程序对应的运行结果就知足需求了,无需在乎解释器这个“黑箱子”里究竟是什么。 实际上不少解释器内部是以“编译器+虚拟机”的方式来实现的,先经过编译器将源码转换为AST或者字节码,而后由虚拟机去完成实际的执行。所谓“解释型语言”并非不用编译,而只是不须要用户显式去使用编译器获得可执行代码而已。 那么虚拟机(virtual machine,VM)又是什么?在许多不一样的场合,VM有着不一样的意义。若是上下文是Java、Python这类语言,那么通常指的是高级语言虚拟机(high-level language virtual machine,HLL VM),其意义是实现高级语言的语义。VM既然被称为“机器”,通常认为输入是知足某种指令集架构(instruction set architecture,ISA)的指令序列,中间转换为目标ISA的指令序列并加以执行,输出为程序的执行结果的,就是VM。源与目标ISA能够是同一种,这是所谓same-ISA VM。 前面提到解释器中的编译器的输出多是AST,也多是字节码之类的指令序列;通常会把执行后者的程序称为VM,而执行前者的仍是笼统称为解释器或者树遍历式解释器(tree-walking interpreter)。这只是种习惯而已,并无多少确凿的依据。只不过线性(相对于树形)的指令序列看起来更像通常真正机器会执行的指令序列而已。 其实我以为把执行AST的也叫VM也没啥大问题。若是认同这个观点,那么把DLR看做一种VM也就能够接受了——它的“指令集”就是树形的Expression Tree。 VM并非神奇的就能执行代码了,它也得采用某种方式去实现输入程序的语义,而且一样有几种选择:“编译”,例如微软的.NET中的CLR;“解释”,例如CPython、CRuby 1.9,许多老的JavaScript引擎等;也有介于二者之间的混合式,例如Sun的JVM,HotSpot。若是采用编译方式,VM会把输入的指令先转换为某种能被底下的系统直接执行的形式(通常就是native code),而后再执行之;若是采用解释方式,则VM会把输入的指令逐条直接执行。 换个角度说,我以为采用编译和解释方式实现虚拟机最大的区别就在因而否存下目标代码:编译的话会把输入的源程序以某种单位(例如基本块/函数/方法/trace等)翻译生成为目标代码,并存下来(不管是存在内存中仍是磁盘上,无所谓),后续执行能够复用之;解释的话则把源程序中的指令是逐条解释,不生成也不存下目标代码,后续执行没有多少可复用的信息。有些稍微先进一点的解释器可能会优化输入的源程序,把知足某些模式的指令序列合并为“超级指令”;这么作就是朝着编译的方向推动。后面讲到解释器的演化时再讨论超级指令吧。 若是一种语言的主流实现是解释器,其内部是编译器+虚拟机,而虚拟机又是采用解释方式实现的,或者内部实现是编译器+树遍历解释器,那它就是名副其实的“解释型语言”。若是内部用的虚拟机是用编译方式实现的,其实跟广泛印象中的“解释器”仍是挺不一样的…… 能够举这样一个例子:ActionScript 3,通常都被认为是“解释型语言”对吧?但这种观点究竟是把FlashPlayer总体当作一个解释器,于是AS3是“解释型语言”呢?仍是认为FlashPlayer中的虚拟机采用解释执行方案,于是AS3是“解释型语言”呢? 其实Flash或Flex等从AS3生成出来的SWF文件里就包含有AS字节码(ActionScript Byte Code,ABC)。等到FlashPlayer去执行SWF文件,或者说等到AVM2(ActionScript Virtual Machine 2)去执行ABC时,又有解释器和JIT编译器两种实现。这种须要让用户显式进行编译步骤的语言,究竟是不是“解释型语言”呢?呵呵。因此我一直以为“编译型语言”跟“解释型语言”的说法太模糊,不太好。 有兴趣想体验一下从命令行编译“裸”的AS3文件获得ABC文件,再从命令行调用AVM2去执行ABC文件的同窗,能够从这帖下载我以前从源码编译出来的AVM2,本身玩玩看。例如说要编译一个名为test.as的文件,用下列命令:
java -jar asc.jar -import builtin.abc -import toplevel.abc test.as就是用ASC将test.as编译,获得test.abc。接着用:
avmplus test.abc就是用AVM2去执行程序了。很生动的体现出“编译器+虚拟机”的实现方式。 这个“裸”的AVM2没有带Flash或Flex的类库,能用的函数和类都有限。不过AS3语言实现是完整的。能够用print()函数来向标准输出流写东西。 Well……其实写Java程序不也是这样么?如今也确实还有不少人把Java称为“解释型语言”,彻底无视Java代码一般是通过显式编译步骤才获得.class文件,而有些JVM是采用纯JIT编译方式实现的,内部没解释器,例如Jikes RVM。我愈发感到“解释型语言”是个应该避开的用语 =_= 关于虚拟机,有本很好的书绝对值得一读,《虚拟机——系统与进程的通用平台》(Virtual Machines: Versatile Platforms for Systems and Processes)。国内有影印版也有中文版,我是读了影印版,不太清楚中文版的翻译质量如何。听说翻译得还行,我没法印证。 三、基于栈与基于寄存器的指令集架构 用C的语法来写这么一个语句:
a = b + c;若是把它变成这种形式: add a, b, c 那看起来就更像机器指令了,对吧?这种就是所谓“三地址指令”(3-address instruction),通常形式为: op dest, src1, src2 许多操做都是二元运算+赋值。三地址指令正好能够指定两个源和一个目标,能很是灵活的支持二元操做与赋值的组合。ARM处理器的主要指令集就是三地址形式的。 C里要是这样写的话:
a += b;变成: add a, b 这就是所谓“二地址指令”,通常形式为: op dest, src 它要支持二元操做,就只能把其中一个源同时也做为目标。上面的add a, b在执行事后,就会破坏a原有的值,而b的值保持不变。x86系列的处理器就是二地址形式的。 上面提到的三地址与二地址形式的指令集,通常就是经过“基于寄存器的架构”来实现的。例如典型的RISC架构会要求除load和store之外,其它用于运算的指令的源与目标都要是寄存器。 显然,指令集能够是任意“n地址”的,n属于天然数。那么一地址形式的指令集是怎样的呢? 想像一下这样一组指令序列: add 5 sub 3 这只指定了操做的源,那目标是什么?通常来讲,这种运算的目标是被称为“累加器”(accumulator)的专用寄存器,全部运算都靠更新累加器的状态来完成。那么上面两条指令用C来写就相似:
acc += 5; acc -= 3;只不过acc是“隐藏”的目标。基于累加器的架构近来比较少见了,在很老的机器上繁荣过一段时间。 那“n地址”的n若是是0的话呢? 看这样一段Java字节码:
iconst_1 iconst_2 iadd istore_0注意那个iadd(表示整型加法)指令并无任何参数。连源都没法指定了,零地址指令有什么用?? 零地址意味着源与目标都是隐含参数,其实现依赖于一种常见的数据结构——没错,就是栈。上面的iconst_一、iconst_2两条指令,分别向一个叫作“求值栈”(evaluation stack,也叫作operand stack“操做数栈”或者expression stack“表达式栈”)的地方压入整型常量一、2。iadd指令则从求值栈顶弹出2个值,将值相加,而后把结果压回到栈顶。istore_0指令从求值栈顶弹出一个值,并将值保存到局部变量区的第一个位置(slot 0)。 零地址形式的指令集通常就是经过“基于栈的架构”来实现的。请必定要注意,这个栈是指“求值栈”,而不是与系统调用栈(system call stack,或者就叫system stack)。千万别弄混了。有些虚拟机把求值栈实如今系统调用栈上,但二者概念上不是一个东西。 因为指令的源与目标都是隐含的,零地址指令的“密度”能够很是高——能够用更少空间放下更多条指令。所以在空间紧缺的环境中,零地址指令是种可取的设计。但零地址指令要完成一件事情,通常会比二地址或者三地址指令许多更多条指令。上面Java字节码作的加法,若是用x86指令两条就能完成了:
mov eax, 1 add eax, 2(好吧我犯规了,istore_0对应的保存我没写。但假如局部变量比较少的话也没必要把EAX的值保存(“溢出”,register spilling)到调用栈上,就这样吧 =_= 其实就算把结果保存到栈上也就是多一条指令而已……) 一些比较老的解释器,例如CRuby在1.9引入YARV做为新的VM以前的解释器,还有SquirrleFish以前的老JavaScriptCore,它们内部是树遍历式解释器;解释器递归遍历树,树的每一个节点的操做依赖于解释其各个子节点返回的值。这种解释器里没有所谓的求值栈,也没有所谓的虚拟寄存器,因此不适合以“基于栈”或“基于寄存器”去描述。 而像V8那样直接编译JavaScript生成机器码,而不经过中间的字节码的中间表示的JavaScript引擎,它内部有虚拟寄存器的概念,但那只是普通native编译器的正常组成部分。我以为也不该该用“基于栈”或“基于寄存器”去描述它。 V8在内部也用了“求值栈”(在V8里具体叫“表达式栈”)的概念来简化生成代码的过程,使用所谓“虚拟栈帧”来记录局部变量与求值栈的状态;但在真正生成代码的时候会作窥孔优化,消除冗余的push/pop,将许多对求值栈的操做转变为对寄存器的操做,以此提升代码质量。因而最终生成出来的代码看起来就不像是基于栈的代码了。 关于JavaScript引擎的实现方式,下文会再提到。 四、基于栈与基于寄存器架构的VM,用哪一个好? 若是是要模拟现有的处理器,那没什么可选的,本来处理器采用了什么架构就只能以它为源。但HLL VM的架构一般能够自由构造,有很大的选择余地。为何许多主流HLL VM,诸如JVM、CLI、CPython、CRuby 1.9等,都采用了基于栈的架构呢?我以为这有三个主要缘由: ·实现简单 因为指令中没必要显式指定源与目标,VM能够设计得很简单,没必要考虑为临时变量分配空间的问题,求值过程当中的临时数据存储都让求值栈包办就行。 更新:回帖中cscript指出了这句不太准确,应该是针对基于栈架构的指令集生成代码的编译器更容易实现,而不是VM更容易实现。 ·该VM是为某类资源很是匮乏的硬件而设计的 这类硬件的存储器可能很小,每一字节的资源都要节省。零地址指令比其它形式的指令更紧凑,因此是个天然的选择。 ·考虑到可移植性 处理器的特性各个不一样:典型的CISC处理器的通用寄存器数量不多,例如32位的x86就只有8个32位通用寄存器(若是不算EBP和ESP那就是6个,如今通常都算上);典型的RISC处理器的各类寄存器数量多一些,例如ARM有16个32位通用寄存器,Sun的SPARC在一个寄存器窗口里则有24个通用寄存器(8 in,8 local,8 out)。 假如一个VM采用基于寄存器的架构(它接受的指令集大概就是二地址或者三地址形式的),为了高效执行,通常会但愿能把源架构中的寄存器映射到实际机器上寄存器上。可是VM里有些很重要的辅助数据会常常被访问,例如一些VM会保存源指令序列的程序计数器(program counter,PC),为了效率,这些数据也得放在实际机器的寄存器里。若是源架构中寄存器的数量跟实际机器的同样,或者前者比后者更多,那源架构的寄存器就没办法都映射到实际机器的寄存器上;这样VM实现起来比较麻烦,与可以所有映射相比效率也会大打折扣。 若是一个VM采用基于栈的架构,则不管在怎样的实际机器上,都很好实现——它的源架构里没有任何通用寄存器,因此实现VM时能够比较自由的分配实际机器的寄存器。因而这样的VM可移植性就比较高。做为优化,基于栈的VM能够用编译方式实现,“求值栈”实际上也能够由编译器映射到寄存器上,减轻数据移动的开销。 回到主题,基于栈与基于寄存器的架构,谁更快?看看如今的实际处理器,大多都是基于寄存器的架构,从侧面反映出它比基于栈的架构更优秀。 而对于VM来讲,源架构的求值栈或者寄存器均可能是用实际机器的内存来模拟的,因此性能特性与实际硬件又有点不一样。通常认为基于寄存器的架构对VM来讲也是更快的,缘由是:虽然零地址指令更紧凑,但完成操做须要更多的load/store指令,也意味着更多的指令分派(instruction dispatch)次数与内存访问次数;访问内存是执行速度的一个重要瓶颈,二地址或三地址指令虽然每条指令占的空间较多,但整体来讲能够用更少的指令完成操做,指令分派与内存访问次数都较少。 这方面有篇被引用得不少的论文讲得比较清楚,Virtual Machine Showdown: Stack Versus Registers,是在VEE 2005发表的。VEE是Virtual Execution Environment的缩写,是ACM下SIGPLAN组织的一个会议,专门研讨虚拟机的设计与实现的。能够去找找这个会议往年的论文,不少都值得读。 五、树遍历解释器图解 在演示基于栈与基于寄存器的VM的例子前,先回头看看更原始的解释器形式。 前面提到解析器的时候用了i = a + b * c的例子,如今让咱们来看看由解析器生成的AST要是交给一个树遍历解释器,会如何被解释执行呢? 用文字说不够形象,仍是看图吧: ![]() SquirrelFish以前的JavaScriptCore、CRuby 1.9以前的CRuby就都是采用这种方式来解释执行的。 可能须要说明的: ·左值与右值 在源代码i = a + b * c中,赋值符号左侧的i是一个标识符,表示一个变量,取的是变量的“左值”(也就是与变量i绑定的存储单元);右侧的a、b、c虽然也是变量,但取的是它们的右值(也就是与变量绑定的存储单元内的值)。在许多编程语言中,左值与右值在语法上没有区别,它们实质的差别容易被忽视。通常来讲左值能够做为右值使用,反之则不必定。例如数字1,它自身有值就是1,能够做为右值使用;但它没有与可赋值的存储单元相绑定,因此没法做为左值使用。 左值不必定只是简单的变量,还能够是数组元素或者结构体的域之类,可能由复杂的表达式所描述。所以左值也是须要计算的。 ·优先级、结合性与求值顺序 这三个是不一样的概念,却常常被混淆。经过AST来看就很容易理解:(假设源码是从左到右输入的) 所谓优先级,就是不一样操做相邻出现时,AST节点与根的距离的关系。优先级高的操做会更远离根,优先级低的操做会更接近根。为何?由于整棵AST是之后序遍历求值的,显然节点离根越远就越早被求值。 所谓结合性,就是当同类操做相邻出现时,操做的前后顺序同AST节点与根的距离的关系。若是是左结合,则先出现的操做对应的AST节点比后出现的操做的节点离根更远;换句话说,先出现的节点会是后出现节点的子节点。 所谓求值顺序,就是在遍历子节点时的顺序。对二元运算对应的节点来讲,先遍历左子节点再遍历右子节点就是左结合,反之则是右结合。 这三个概念与运算的联系都很紧密,但实际描述的是不一样的关系。前二者是解析器根据语法生成AST时就已经决定好的,后者则是解释执行或者生成代码而去遍历AST时决定的。 在没有反作用的环境中,给定优先级与结合性,则不管求值顺序是怎样的都能获得一样的结果;而在有反作用的环境中,求值顺序会影响结果。 赋值运算虽然是右结合的,但仍然能够用从左到右的求值顺序;事实上Java、C#等许多语言都在规范里写明表达式的求值顺序是从左到右的。上面的例子中就先遍历的=的左侧,求得i的左值;再遍历=的右侧,获得表达式的值23;最后执行=自身,完成对i的赋值。 因此若是你要问:赋值在相似C的语言里明明是右结合的运算,为何你先遍历左子树再遍历右子树?上面的说明应该能让你发现你把结合性与求值顺序混为一谈了。 看看Java从左到右求值顺序的例子:
public class EvalOrderDemo { public static void main(String[] args) { int[] arr = new int[1]; int a = 1; int b = 2; arr[0] = a + b; } }由javac编译,获得arr[0] = a + b对应的字节码是:
// 左子树:数组下标 // a[0] aload_1 iconst_0 // 右子树:加法 // a iload_2 // b iload_3 // + iadd // 根节点:赋值 iastore六、从树遍历解释器进化为基于栈的字节码解释器的前端 若是你看到树形结构与后序遍历,而且知道后缀记法(或者逆波兰记法,reverse Polish notation)的话,那敏锐的你或许已经察觉了:要解释执行AST,能够先经过后序遍历AST生成对应的后缀记法的操做序列,而后再解释执行该操做序列。这样就把树形结构压扁,成为了线性结构。 树遍历解释器对AST的求值其实隐式依赖于调用栈:eval(Node n)的递归调用关系是靠调用栈来维护的。后缀表达式的求值则一般显式依赖于一个栈,在遇到操做数时将其压入栈中,遇到运算时将合适数量的值从栈顶弹出进行运算,再将结果压回到栈上。这种描述看起来眼熟么?没错,后缀记法的求值中的核心数据结构就是前文提到过的“求值栈”(或者叫操做数栈,如今应该更好理解了)。后缀记法也就与基于栈的架构联系了起来:后者能够很方便的执行前者。同理,零地址指令也与树形结构联系了起来:能够经过一个栈方便的把零地址指令序列再转换回到树的形式。 Java字节码与Java源码联系紧密,前者能够当作后者的后缀记法。若是想在JVM上开发一种语义能直接映射到Java上的语言,那么编译器很好写:秘诀就是后序遍历AST。 那么让咱们再来看看,一样是i = a + b * c这段源码对应的AST,生成Java字节码的例子: ![]() 若是你对Python、CRuby 1.9之类有所了解,会发现它们的字节码跟Java字节码在“基于栈”的这一特征上很是类似。其实它们都是由“编译器+VM”构成的,概念上就像是Java编译器与JVM融为一体通常。 从这点看,Java与Python和Ruby能够说是一条船上的。虽然说内部具体实现的显著差别使得先进的JVM比简单的JVM快不少,而JVM又广泛比Python和Ruby快不少。 当解释器中用于解释执行的中间代码是树形时,其中能被称为“编译器”的部分基本上就是解析器;中间代码是线性形式(如字节码)时,其中能被称为编译器的部分就包括上述的代码生成器部分,更接近于所谓“完整的编译器”;若是虚拟机是基于寄存器架构的,那么编译器里至少还得有虚拟寄存器分配器,又更接近“完整的编译器”了。 七、基于栈与基于寄存器架构的VM的一组图解 要是拿两个分别实现了基于栈与基于寄存器架构、但没有直接联系的VM来对比,效果或许不会太好。如今恰巧有二者有紧密联系的例子——JVM与Dalvik VM。JVM的字节码主要是零地址形式的,概念上说JVM是基于栈的架构。Google Android平台上的应用程序的主要开发语言是Java,经过其中的Dalvik VM来运行Java程序。为了能正确实现语义,Dalvik VM的许多设计都考虑到与JVM的兼容性;但它却采用了基于寄存器的架构,其字节码主要是二地址/三地址混合形式的,乍一看可能让人纳闷。考虑到Android有明确的目标:面向移动设备,特别是最初要对ARM提供良好的支持。ARM9有16个32位通用寄存器,Dalvik VM的架构也经常使用16个虚拟寄存器(同样多……没办法把虚拟寄存器所有直接映射到硬件寄存器上了);这样Dalvik VM就不用太顾虑可移植性的问题,优先考虑在ARM9上以高效的方式实现,发挥基于寄存器架构的优点。 Dalvik VM的主要设计者Dan Bornstein在Google I/O 2008上作过一个关于Dalvik内部实现的演讲;同一演讲也在Google Developer Day 2008 China和Japan等会议上重复过。这个演讲中Dan特别提到了Dalvik VM与JVM在字节码设计上的区别,指出Dalvik VM的字节码能够用更少指令条数、更少内存访问次数来完成操做。(看不到YouTube的请自行想办法) 眼见为实。要本身动手感觉一下该例子,请先确保已经正确安装JDK 6,并从官网获取Android SDK 1.6R1。连不上官网的也请本身想办法。 建立Demo.java文件,内容为:
public class Demo { public static void foo() { int a = 1; int b = 2; int c = (a + b) * 5; } }经过javac编译,获得Demo.class。经过javap能够看到foo()方法的字节码是:
0: iconst_1 1: istore_0 2: iconst_2 3: istore_1 4: iload_0 5: iload_1 6: iadd 7: iconst_5 8: imul 9: istore_2 10: return接着用Android SDK里platforms\android-1.6\tools目录中的dx工具将Demo.class转换为dex格式。转换时能够直接以文本形式dump出dex文件的内容。使用下面的命令:
dx --dex --verbose --dump-to=Demo.dex.txt --dump-method=Demo.foo --verbose-dump Demo.class能够看到foo()方法的字节码是:
0000: const/4 v0, #int 1 // #1 0001: const/4 v1, #int 2 // #2 0002: add-int/2addr v0, v1 0003: mul-int/lit8 v0, v0, #int 5 // #05 0005: return-void(本来的输出里还有些code-address、local-snapshot等,那些不是字节码的部分,能够忽略。) 让咱们看看两个版本在概念上是如何工做的。 JVM: ![]() |