a node programing that fetch key infomation from more than two thousand pdf documents,and output in exceljavascript
需求描述:处理同一目录下的2000个pdf文件,提取每一个文件中的一些关键信息(单位名称,统一社会信用代码,行业类别),并整理数据导出为excel表格。html
最近在看node文件处理,刚好发现校友群里有个土木专业的同窗提出这么一个问题,当时的第一想法就是我也许能够作,而后就找到了那个同窗问清楚了明确需求,而且要了部分pdf文件,开始作...... 个人第一想法就是,首先读取目录下的文件,而后对每一个文件内容,进行正则匹配,找出目的信息,而后再导出。事实上也是这么回事,基本上分为三步:前端
node读取pdf文件,引入了'pdf2json':java
npm install pdf2json --save
复制代码
使用这个包,能够将pdf解析为json格式,从而获得文件的内容node
const PDFParser = require('pdf2json');
const src = './pdf';
var pdfParser = new PDFParser(this, 1);
pdfParser.loadPDF(`${src}/${path}`);
pdfParser.on('pdfParser_dataError', errData =>reject( new Error(errData.parserError)));
pdfParser.on('pdfParser_dataReady', () => {
let data = pdfParser.getRawTextContent();
});
复制代码
目标是找出每一个文件中的“单位名称”、”统一社会信用代码“、“行业类别”,仔细分析上一过程当中输出的结果:python
由于要处理的文件内容格式都很是严谨,咱们所要获取的信息都在第三页,解析出的json数据中,目标文本分布在page(1)和page(3)中,且目标文本格式都是key:value的格式,每个文本都换行,因此处理起来就方便多了,最终匹配的是以“单位名称:”开头的一个或者多个非空字符,因为要匹配三个值,因此用(red|blue|green)这种方式来查找目标值。git
let result = data.match(/(统一社会信用代码|单位名称|行业类别):[\S]*/g);
复制代码
match匹配最终获得一个数组:github
result = ['统一社会信用代码:xxx','单位名称:xxx','行业类别:xxx']
复制代码
网上有不少js代码将table导出为excel的代码,这里使用了'node-xlsx',安装:web
npm install node-xlsx --save
复制代码
使用这个是由于简单,而且也符合需求,上手快。正则表达式
const xlsx = require('node-xlsx');
var buffer = xlsx.build([{name: 'company', data: list}]);
fs.writeFileSync('list.csv', buffer, 'binary');
复制代码
三行代码就搞定了,就获得了一个csv格式的excel,剩下的处理就是对list的处理了,传入的list需为一个二维数组,数组的第一项为表头,其余项为每一行对应得数据,也为数组格式。整理的list以下:
[
['序号','统一社会信用代码','单位名称','行业类别'],
['xxx','xxx','xxx','xxxx']
]
复制代码
解析PDF的过程为异步,因此在批量处理大量文件的状况下,要考虑内存泄漏问题,每次只处理五个,处理完成以后再去处理剩余的文件,直到所有完成处理,输出为excel。 当文件数量超过30个,报错信息以下:
FATAL ERROR: CALL_AND_RETRY_LAST Allocation failed - JavaScript heap out of memory
复制代码
出现问题的缘由:
解释:因为node是基于V8引擎,在node中经过javascript使用内存时只能使用部份内存,64位系统下约为1.4GB,32位系统下约为0.7GB,当执行的程序占用系统资源太高,超出了V8对node默认的内存限制大小就会报上图所示错误。
若是是编译项目,V8提供的默认内存大小不够用,能够去修改 --max-old-space-size,可是我目前的需求是处理2000多个pdf文件,解析为json,因此使用的内存大小是不肯定的,不能采起这种方案。
个人理解:node js 不少操做都是异步执行的,而异步操做的结果就是不能确保执行完成的时间,因此当多个异步操做同时进行的时候,不能确保执行完成的顺序,可是执行的结果又是相互关联的,因此在执行的时候,会一直占用内存,而不被垃圾回收机制回收,形成内存泄漏。(也有一种多是队列里等待执行的任务太多了。。。)
const PDFParser = require('pdf2json');
const fs = require('fs');
const src = './pdf';
const xlsx = require('node-xlsx');
let list = [['序号','统一社会信用代码','单位名称','行业类别']];
let index = 1;
let len = 0;
fs.readdir(src, (err, files) => {
len = files.length;
files.forEach(item => {
var pdfParser = new PDFParser(this, 1);
pdfParser.loadPDF(`${src}/${item}`);
pdfParser.on('pdfParser_dataError', errData => console.error(errData.parserError)); pdfParser.on('pdfParser_dataReady', () => {
let data = pdfParser.getRawTextContent();
let result = data.match(/(统一社会信用代码|单位名称|行业类别):[\S]*/g);
for (let i = 0 ;i < 3;++i){
result[i] = result[i].split(':')[1];
}
list.push(result);
++index;
if( index === len){
var buffer = xlsx.build([{name: 'company', data: list}]); // Returns a buffer
fs.writeFileSync('list.csv', buffer, 'binary');
}
});
});
});
复制代码
可是究竟这个异步操做的并发量的上限是多少,不能肯定,有一个同窗尝试过,读取PDF文件的时候,上限是30,分析以上结果,进行改进,改进以后,每次执行五个异步操做,执行完成以后再继续执行下一个五个异步函数。
测试过,这种方式处理100个文件时没有问题的,对比了两种方式方法,以34个文件为测试用例:
方法 | 文件数量 | 读取时间(s) | CPU | 内存
ConvertToJSON(path){
return new Promise((resolve,reject) => {
var pdfParser = new PDFParser(this, 1);
pdfParser.loadPDF(`${src}/${path}`);
pdfParser.on('pdfParser_dataError', errData =>reject( new Error(errData.parserError)));
pdfParser.on('pdfParser_dataReady', () => {
// 省略处理部分
resolve(result);
});
}).catch(error => {
console.log(error);
});
}
seek(callback){
let arr = this.files.splice(0,5);
let all = [];
arr.forEach(item => {
all.push(this.ConvertToJSON(item));
});
let promise = Promise.all(all);
promise.then(result => {
// 省略处理部分
return this.files.length === 0 ? callback(this.list) : this.seek(callback);
});
}
复制代码
源码地址,欢迎指正。 可以帮助到别人同时本身又尝试了新鲜事物,因此以为很开心。
参考文档:
在此鸣谢大学好友邢旭磊。
个人我的博客:下雨天DY的前端成长记