前面了解了hadoop写文件,读文件的执行过程,那么hadoop内部是怎么实现的呢?接下来看一下从hdfs中读取文件的源码,一块儿来分析一下,这样就会更加了解hdfsjava
首先将hadoop/share/common中的jar以及所依赖的lib中的jar,hadoop/share/hdfs中的jar以及所依赖的lib中的jar,导入到工程node
总共59个jar包,写一个测试类linux
package cn.xmf.haddop;
import org.apache.commons.io.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import java.io.FileOutputStream;
import java.io.IOException;
/** * Created by Administrator on 2018/4/11. */
public class hdfs {
public static void main(String[] args) throws IOException {
Configuration conf = new Configuration();
conf.set("fs.defaultFS","hdfs://my01:9000/");
FileSystem fs = FileSystem.get(conf);
FSDataInputStream input = fs.open(new Path("/jdk-8u161-linux-x64.tar.gz"));
FileOutputStream output = new FileOutputStream("d:/jdk8.tgz");
IOUtils.copy(input,output);
}
}
复制代码
运行以后,会将以前hdfs根路径下的jdk下载到d盘,效果以下图apache
接下来重点来了将断点打到FileSystem这一行,进入到FilegeSystem的get方法中分布式
继续点击get,进去oop
向下走,会走到测试
能够看出三目运算,执行CACHE.get(uri,conf),那么进入到这个里面看看ui
继续走spa
这里就是根据scheme从SERVICE_FILE_SYSTEMS这个里面拿出class,那么hdfs对应对FileSystem的实例是什么,继续看一下3d
是DistributedFileSystem终于得到了,下面就很简单,就是将这个class返回,那么在获取FileSystem的时候,实际上是根据conf中配置的fs.defaultFS来肯定的哪种FileSystem。OK到这里刚才第一句话的原理才分析透彻,哪一句话呢?
FileSystem fs = FileSystem.get(conf);
从上图能够看出经过class反射出Fs,由于反射出来的是成员变量都是空的,因此要进行初始化,进入初始分方法
进入到DFSClient中
DFSClient中有一个属性叫作namenode,这个就是客户端的代理,继续跟踪代码,这个是怎么赋值的
进入到createNonHAProxy这个里面
继续走
这句话就是拿到代理对象
返回以后
这样namenode就是代理的proxyInfo中的代理对象
初始化完成以后将代理对象放到DFSClient中,并将dfsClient放到FileSystem中,其实FileSystem里面最终要的就是这个客户端的代理对象,实际上就是namenode的代理对象,这样才能进行从namenode中写文件和读文件
用一个图说明一下这个调用过程,一目了然
好了,今天就分享了FileSystem fs = FileSystem.get(conf);
明天继续讲FSDataInputStream input = fs.open(new Path("/jdk-8u161-linux-x64.tar.gz"));