大学课程设计中,有一次是编写Lex(词法分析器的生成器)和Yacc(语法分析器的生成器),编写这类工具软件不是一件容易的事情。这篇文章记录了当时编程时候的主要思想,主要仍是编译原理的思想。node
根据输入文件生成RE—>NFA—>DFA—>简化的DFA—>根据DFA生成文件。c++
对正规表达式进行处理使其只有|、*、(、)等特殊符号,代换{}[]-等
将RE转化为后缀表达式
把下列类型的string转换:算法
M+----->M.M*编程
M?------>M|e闭包
最后一共有四种链接:工具
普通字符(除了.,|,*):设计
a*:增长三条epsilon边,而且修改终点和起点。blog
a|b:ip
新建两个节点,并把其中一个指向原来的两个nfa的起点,另外一个被原来的两个终点指向。这四个边均是epsilon。修改终点和起点。ci
a.b:链接,合并2号和3号节点。(红色表明nfa的起点,黑色表明nfa的终点)
直接添加一个起点,指向全部nfa的起点。修改起点值,并把原来的终点(每一个nfa只有一个)都加入到最后的终点集合。
经过epsilon到达的边。迭代直到T’=T,每次
repeat:
T1 = T;
T=T1∪T1全部点能经过epsilon到达的边
until T1==T
for each(Node* node in d)//对d的每个节点
{
vector<Node*> eout = node->findNext(c);//求出每一个节点的出边集合
d1.insert(eout.begin(), eout.end());//将后继的每个节点不重复的插入d1
}
最后返回这个d1的闭包
用j标记当前遍历的节点,用p标记已经存在的节点数量
对当前遍历的节点求每一个字符的出边集合,若是有的话,就求该集合的闭包,并判断是否已经存在,作相应的处理:
若是已经存在,则加边
若是不存在,新建节点,再加边,p++
参考维基百科中关于Hopcroft的算法。
可是对于DFA来讲,刚开始并不能简单地分为两个非终结符和终结符的集合,由于每一个终结符最后应该在单独的一个集合中。
读取文件设置符号和产生式的值—>计算FIRST和FOLLOW—>构造LR(1)预测分析器和PPT(预测分析表)—>LR(1)—>LALR—>打印到输出文件。
仍是参考的“现代编译原理”这本书。
对于LR(1)能够不计算FOLLOW,因此只计算FIRST。
初始化:每一个终结符的FIRST是本身
设置一个是否修改的bool变量,检测本次循环是否修改过
遍历每一个产生式
每一个产生式的右部符号,若是当前符号前面都是可为空,则将这个产生式左部的FIRST增长当前符号。
若是每一个符号都是可为空的,则把这个产生式置为可为空。
相似Lex的计算闭包和子集
相似构造DFA
感受此次作的比较辛苦,可能这是由于是工具软件的缘由吧。工具软件要能针对不一样的输入,生成不一样的代码,而后生成出来的代码能够去分析一个文件。