JAVA使用POI如何导出百万级别数据(转载)

用过POI的人都知道,在POI之前的版本中并不支持大数据量的处理,若是数据量过多还会常报OOM错误,这时候调整JVM的配置参数也不是一个好对策(注:jdk在32位系统中支持的内存不能超过2个G,而在64位中没有限制,可是在64位的系统中,性能并非太好),好在POI3.8版本新出来了一个SXSSFWorkbook对象,它就是用来解决大数据量以及超大数据量的导入导出操做的,可是SXSSFWorkbook只支持.xlsx格式,不支持.xls格式的Excel文件。
这里普及一下,在POI中使用HSSF对象时,excel 2003最多只容许存储65536条数据,通常用来处理较少的数据量,这时对于百万级别数据,Excel确定容纳不了,并且在计算机性能稍低的机器上测试,就很容易致使堆溢出。而当我升级到XSSF对象时,它能够直接支持excel2007以上版本,由于它采用ooxml格式。这时excel能够支持1048576条数据,单个sheet表就支持近104万条数据了,虽然这时导出100万数据能知足要求,但使用XSSF测试后发现偶尔仍是会发生堆溢出,因此也不适合百万数据的导出。mysql

 如今咱们知道excel2007及以上版本能够轻松实现存储百万级别的数据,可是系统中的大量数据是如何可以快速准确的导入到excel中这好像是个难题,对于通常的web系统,咱们为了解决成本,基本都是使用的入门级web服务器tomcat,既然咱们不推荐调整JVM的大小,那咱们就要针对咱们的代码来解决咱们要解决的问题。在POI3.8以后新增长了一个类,SXSSFWorkbook,采用当数据加工时不是相似前面版本的对象,它能够控制excel数据占用的内存,他经过控制在内存中的行数来实现资源管理,即当建立对象超过了设定的行数,它会自动刷新内存,将数据写入文件,这样致使打印时,占用的CPU,和内存不多。但有人会说了,我用过这个类啊,他好像并不能彻底解决,当数据量超过必定量后仍是会内存溢出的,并且时间还很长。对你只是用了这个类,可是你并无针对你的需求进行相应的设计,仅仅是用了,因此接下来我要说的问题就是,如何经过SXSSFWorkbook以及相应的写入设计来实现百万级别的数据快速写入。web

 我先举个例子,之前咱们数据库中存在大量的数据,咱们要查询,怎么办?咱们在没有通过设计的时候是这样来处理的,先写一个集合,而后执行jdbc,将返回的结果赋值给list,而后再返回到页面上,可是当数据量大的时候,就会出现数据没法返回,内存溢出的状况,因而咱们在有限的时间和空间下,经过分页将数据一页一页的显示出来,这样能够避免了大数据量数据对内存的占用,也提升了用户的体验,在咱们要导出的百万数据也是一个道理,内存突发性占用,咱们能够限制导出数据所占用的内存,这里我先创建一个list容器,list中开辟10000行的存储空间,每次存储10000行,用完了将内容清空,而后重复利用,这样就能够有效控制内存,因此咱们的设计思路就基本造成了,因此分页数据导出共有如下3个步骤:sql

一、求数据库中待导出数据的行数数据库

二、根据行数求数据提取次数tomcat

三、按次数将数据写入文件服务器

经过以上步骤在效率和用户体验性上都有了很高的提升,接下来上代码性能

public void exportBigDataExcel(ValueDataDto valueDataDto, String path) throws IOException { // 最重要的就是使用SXSSFWorkbook,表示流的方式进行操做 // 在内存中保持100行,超过100行将被刷新到磁盘
    SXSSFWorkbook wb = new SXSSFWorkbook(100); Sheet sh = wb.createSheet(); // 创建新的sheet对象
    Row row = sh.createRow(0);   // 建立第一行对象 // -----------定义表头-----------
    Cell cel0 = row.createCell(0); cel0.setCellValue("1"); Cell cel2 = row.createCell(1); cel2.setCellValue("2"); Cell cel3 = row.createCell(2); cel3.setCellValue("3"); Cell cel4 = row.createCell(3); // ---------------------------
    List<valuedatabean> list = new ArrayList<valuedatabean>(); // 数据库中存储的数据行
    int page_size = 10000; // 求数据库中待导出数据的行数
    int list_count = this.daoUtils.queryListCount(this.valueDataDao .queryExportSQL(valueDataDto).get("count_sql")); // 根据行数求数据提取次数
    int export_times = list_count % page_size > 0 ? list_count / page_size + 1 : list_count / page_size; // 按次数将数据写入文件
    for (int j = 0; j < export_times; j++) { list = this.valueDataDao.queryPageList(this.valueDataDao .queryExportSQL(valueDataDto).get("list_sql"), j + 1, page_size); int len = list.size() < page_size ? list.size() : page_size;
<span style="white-space:pre">    </span>    for (int i = 0; i < len; i++) { Row row_value = sh.createRow(j * page_size + i + 1); Cell cel0_value = row_value.createCell(0); cel0_value.setCellValue(list.get(i).getaa()); Cell cel2_value = row_value.createCell(1); cel2_value.setCellValue(list.get(i).getaa()); Cell cel3_value = row_value.createCell(2); cel3_value.setCellValue(list.get(i).getaa_person()); } list.clear(); // 每次存储len行,用完了将内容清空,以便内存可重复利用
 } FileOutputStream fileOut = new FileOutputStream(path); wb.write(fileOut); fileOut.close(); wb.dispose(); }

到目前已经能够实现百万数据的导出了,可是当咱们的业务数据超过200万,300万了呢?如何解决?测试

这时,直接打印数据到一个工做簿的一个工做表是实现不了的,必须拆分到多个工做表,或者多个工做簿中才能实现。由于一个sheet最多行数为1048576。大数据

下面就以这种思路提供另一种解决方案,直接上代码(后面会附上测试数据库,及案例须要的jar包)this

public static void main(String[] args) throws Exception { Test3SXXFS tm = new Test3SXXFS(); tm.jdbcex(true); } public void jdbcex(boolean isClose) throws InstantiationException, IllegalAccessException, ClassNotFoundException, SQLException, IOException, InterruptedException { String xlsFile = "f:/poiSXXFSBigData.xlsx";        //输出文件 //内存中只建立100个对象,写临时文件,当超过100条,就将内存中不用的对象释放。
    Workbook wb = new SXSSFWorkbook(100);            //关键语句
    Sheet sheet = null;        //工做表对象
    Row nRow = null;        //行对象
    Cell nCell = null;        //列对象 //使用jdbc连接数据库
    Class.forName("com.mysql.jdbc.Driver").newInstance(); String url = "jdbc:mysql://localhost:3306/bigdata?characterEncoding=UTF-8"; String user = "root"; String password = "123456"; //获取数据库链接
    Connection conn = DriverManager.getConnection(url, user,password); Statement stmt = conn.createStatement(ResultSet.TYPE_SCROLL_SENSITIVE,ResultSet.CONCUR_UPDATABLE); String sql = "select * from hpa_normal_tissue limit 1000000";   //100万测试数据
    ResultSet rs = stmt.executeQuery(sql); ResultSetMetaData rsmd = rs.getMetaData(); long  startTime = System.currentTimeMillis();    //开始时间
    System.out.println("strat execute time: " + startTime); int rowNo = 0;        //总行号
    int pageRowNo = 0;    //页行号
        
    while(rs.next()) { //打印300000条后切换到下个工做表,可根据须要自行拓展,2百万,3百万...数据同样操做,只要不超过1048576就能够
        if(rowNo%300000==0){ System.out.println("Current Sheet:" + rowNo/300000); sheet = wb.createSheet("个人第"+(rowNo/300000)+"个工做簿");//创建新的sheet对象
            sheet = wb.getSheetAt(rowNo/300000);        //动态指定当前的工做表
            pageRowNo = 0;        //每当新建了工做表就将当前工做表的行号重置为0
 } rowNo++; nRow = sheet.createRow(pageRowNo++);    //新建行对象 // 打印每行,每行有6列数据 rsmd.getColumnCount()==6 --- 列属性的个数
        for(int j=0;j<rsmd.getColumnCount();j++){ nCell = nRow.createCell(j); nCell.setCellValue(rs.getString(j+1)); } if(rowNo%10000==0){ System.out.println("row no: " + rowNo); } // Thread.sleep(1); //休息一下,防止对CPU占用,其实影响不大
 } long finishedTime = System.currentTimeMillis();    //处理完成时间
    System.out.println("finished execute  time: " + (finishedTime - startTime)/1000 + "m"); FileOutputStream fOut = new FileOutputStream(xlsFile); wb.write(fOut); fOut.flush(); //刷新缓冲区
 fOut.close(); long stopTime = System.currentTimeMillis();        //写文件时间
    System.out.println("write xlsx file time: " + (stopTime - startTime)/1000 + "m"); if(isClose){ this.close(rs, stmt, conn); } } //执行关闭流的操做
private void close(ResultSet rs, Statement stmt, Connection conn ) throws SQLException{ rs.close(); stmt.close(); conn.close(); }

数据库截图:

案例执行结果截图:

相关文章
相关标签/搜索