Hadoop学习--FileUtil工具类使用--day04

import java.io.ByteArrayOutputStream;java

import java.io.FileInputStream;apache

import java.io.FileOutputStream;数组

import java.io.InputStream;ide

import java.net.URL;工具


import org.apache.hadoop.conf.Configuration;oop

import org.apache.hadoop.fs.FSDataInputStream;spa

import org.apache.hadoop.fs.FSDataOutputStream;.net

import org.apache.hadoop.fs.FileStatus;xml

import org.apache.hadoop.fs.FileSystem;对象

import org.apache.hadoop.fs.FileUtil;

import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IOUtils;

import org.junit.Test;


public class fileUtil {


/**

* 列出文件目录结构

*/

@Test

public void listNum() throws Exception {

//建立configuration对象,有个默认的加载顺序,先从core-default.xml,再到src目录中的文件,这里

//咱们给定了

        Configuration conf = new Configuration();

        //修改当前文件的副本数量

        conf.set("dfs.replication", "4");

        //修改当前文件的块大小

        conf.set("dfs.blocksize", "20480");

        FileSystem fs = FileSystem.get(conf);

        //定义一个URL的字符串

        String file = "hdfs://hadoop01:9000/user/hadoop/data";

        //经过一个URL的字符串构建一个path对象

        Path path = new Path(file);

        FileStatus[] fst = fs.listStatus(path);

        for(FileStatus fst0 : fst) {

        System.out.println(fst0.getPath() + ": isFile() =" + fst0.isFile());

        }

        //工具类,直接将FileStatus数组提取数据,造成Path[]

        System.out.println("-------------------------------");

        Path[] paths =FileUtil.stat2Paths(fst);

        for (Path p : paths){

        System.out.println(p.toString());

        }

   }

}

相关文章
相关标签/搜索