文档章节

HDFS如何实现本地文件上传?

强子1985
 强子1985
发布于 2014/12/15 17:52
字数 2120
阅读 395
收藏 8

上传时,涉及到很多IO类,但是最关键的类就是:DFSOutputStream这个类。【0.1.0】

下面就开始分析这个类的代码。

-------------------------------------------类结构分析

 

-------------------------------------------具体函数分析

public synchronized void write(byte b[], int off, int len)

        throws IOException {

            if (closed) { //校验是否关闭了,关闭了自然不应该再写入数据了

                throw new IOException("Stream closed");

            }

            while (len > 0) { //这里的len就是指源缓冲区剩下的未写完的数据长度,单位byte

              int remaining = BUFFER_SIZE - pos; //目的缓冲区里可以写的字节数

              int toWrite = Math.min(remaining, len); //跟需要写的字节数比较,取较小值作为真正要写入的字节数

              System.arraycopy(b, off, outBufpos, toWrite); //开始复制来作为写入到目的缓冲区操作

              pos += toWrite; //更新目的缓冲区位置指针

              off += toWrite; //更新源缓冲区位置指针

              len -= toWrite; //更新源缓冲区剩下的内容长度

              filePos += toWrite; //计算整个文件的总的已经写入的长度(包括缓冲区里的内容)

              if ((bytesWrittenToBlock + pos >= BLOCK_SIZE) ||

                  (pos == BUFFER_SIZE)) {

                flush(); //这里是2个条件引起flush,一个是总长度(已写+缓存)超过一个块大小,

                                              //第2个就是目的缓冲区已经满了,都么空间写入了,自然需要flush了。

              }

            }

        }

 //友情提醒,这里的前半段写入是能写多少写多少,写完了再判断!

为啥有2个判断条件?想必很多人对缓冲区满了很好理解,因为都没剩余空间了

而对bytesWrittenToBlock + pos >= BLOCK_SIZE可能不是很清楚

这是因为一个Block写满了就要另起炉灶,重新开一个Block.

flush()函数暂时不解释,后面再解释!

 

---

 

 

 public synchronized void write(int b) throws IOException {

            if (closed) {//仍然是校验是否关闭

                throw new IOException("Stream closed");

            }

            if ((bytesWrittenToBlock + pos == BLOCK_SIZE) ||

                (pos >= BUFFER_SIZE)) {

                flush();

            }//仍然是2个条件的校验

            outBuf[pos++] = (byte) b;

            filePos++;//2句的意义在于真正的写入到目的缓冲区里

                         不过为啥不把这2段调一下顺序更好理解?果然思维独特!

        }

 

---

 public synchronized void flush() throws IOException {

            if (closed) {

                throw new IOException("Stream closed");

            }//检验是否关闭,老规矩

            if (bytesWrittenToBlock + pos >= BLOCK_SIZE) {

                flushData(BLOCK_SIZE - bytesWrittenToBlock);

            }//如果需要新起1Block的话,就把剩下的不足字节数先写上

            if (bytesWrittenToBlock == BLOCK_SIZE) {

                endBlock();//然后关闭当前块,新起一块

            }

            flushData(pos);//对当前块继续写剩下的

        } 

 

---

 

继续看别的函数

在看别的函数之前,首先希望读者先建立一个0.1.0中文件的存储机制。

在读取本地文件上传到HDFS中,文件流是这样的。

本地文件--->本地内存缓冲区Buffer--->本地文件--->上传到远程HDFS系统。

本地内存缓冲区Buffer--->本地文件就是flushData做的事情,请再复习下flush函数,然后再接下来分析flushData.

PS:看代码比写代码累,看代码是了解别人的思维,写代码是把自己的思维实现起来。。。 

private synchronized void flushData(int maxPos) throws IOException {

            int workingPos = Math.min(pos, maxPos);//计算要写入的字节数,真是多此一举。

            

            if (workingPos > 0) {//如果确实需要写的话

                //

                // To the local block backup, write just the bytes

                //

                backupStream.write(outBuf, 0, workingPos);//写入到本地文件

                //注意,请认真阅读backupStream的初始化过程,是一个本地文件。

                //也就是说计划把内存缓冲区里的内容写到本地文件中,写完一个block再发送给HDFS.

                //聪明的读者应该想到最后一个block的大小是<=blockSize的。

                // Track position

                //

                bytesWrittenToBlock += workingPos;//更新写入到block块的字节数,

                //尤其要强调,当一个块结束后,这个变量就会重置为0,你懂的。

                System.arraycopy(outBuf, workingPos, outBuf, 0, pos - workingPos);

                //字节前挪移到偏移量为0的位置,方便后面IO操作,你懂得,不解释。

                pos -= workingPos;//相关变量都需要更新

            }

        }

 

---------------

接下来到了比较核心的函数endBlock(); 意思是关闭当前块,新起一块,下面来看看具体的代码!

 

private synchronized void endBlock() throws IOException {

            //

            // Done with local copy

            //

            backupStream.close();//关闭本地文件系统的临时文件

            //

            // Send it to datanode//准备发送给datanode了。

            //

            boolean mustRecover = true;//定义一个哨兵变量

            while (mustRecover) {//需要读取当前文件时

                nextBlockOutputStream();

           因为这个函数到后面才分析,所以提把背景知识补充好,这个函数

           主要是初始化了一对IO流句柄,这个流是当前shell和远程datanode

           之间的TCP连接,这对IO流句柄就是 blockStream + blockReplyStream

           分别对应着输出流和输入流,输出流用来输出文件头和文件内容,输入流是

           用来读取响应。 

                InputStream in = new FileInputStream(backupFile);//既然第一行关闭了写,

                现在就可以开始读了

                try {

                    byte buf[] = new byte[BUFFER_SIZE];//还是局部的IO缓冲区

                    int bytesRead = in.read(buf);//从本地文件中读取内容

                    while (bytesRead > 0) {//大于0

                        blockStream.writeLong((long) bytesRead);//写入字节数

                        blockStream.write(buf, 0, bytesRead);//写入缓冲区的内容

                        bytesRead = in.read(buf);//继续从本地文件中读取

                    }

                    internalClose();//NameNodeDataNode的交互,表示关闭

                    mustRecover = false;//表示任务结束

                } catch (IOException ie) {

                    handleSocketException(ie);

                } finally {

                  in.close();//关闭当前文件的输入流

                }

            }

            //

            // Delete local backup, start new one

            //下面4行是从新建立起本地文件系统的文件缓冲系统,不解释

            backupFile.delete();

            backupFile = newBackupFile();

            backupStream = new FileOutputStream(backupFile);

            bytesWrittenToBlock = 0;

        }

在阅读以上代码之后,我个人认为如果用C语言来写这段逻辑的话,我会直接调用sendfile来实现文件传输。

当然JAVA的API滞后性以及OS当时或许都不提供这种方式吧,反正现在的内核都提供了。

 

---------------------------------------

 那么接下来分析的是函数:nextBlockOutputStream()

 

private synchronized void nextBlockOutputStream() throws IOException {

            boolean retry = false;//不解释

            long start = System.currentTimeMillis();//当前开始时间

            do {

                retry = false;//重置为false 

                

                long localstart = System.currentTimeMillis();//当前开始时间

                boolean blockComplete = false;//标注块是否OK

                LocatedBlock lb = null;    //初始化为null          

                while (! blockComplete) {//如果未结束

                    if (firstTime) {//如果是第一次开启一个文件

                        lb = namenode.create(src.toString(), clientName.toString(), localNameoverwrite);//创建一个文件 

                    } else {

                        lb = namenode.addBlock(src.toString(), localName);

                    }//增加一个block

                    if (lb == null) {//如果找不到

                        try {

                            Thread.sleep(400);//就沉睡400毫秒

                            if (System.currentTimeMillis() - localstart > 5000) {

                                LOG.info("Waiting to find new output block node for " + (System.currentTimeMillis() - start) + "ms");

                            }

                        } catch (InterruptedException ie) {

                        }

                    } else {

                        blockComplete = true;//设置blockCompletetrue.解释为找到了一个block

                    }

                }

                block = lb.getBlock();//lb中获取block的信息

                DatanodeInfo nodes[] = lb.getLocations();//lb中获取block要存储的DataNode数组

                //

                // Connect to first DataNode in the list.  Abort if this fails.

                //请注意上面这句的意思:连接第一个数据节点,

                //为啥?数据传输采用计算机组成原理的菊花链模式

                InetSocketAddress target = DataNode.createSocketAddr(nodes[0].getName().toString());//解析

                try {

                    s = new Socket();

                    s.connect(target, READ_TIMEOUT);//连接第一个DataNode

                    s.setSoTimeout(READ_TIMEOUT);//设置读取时间

                } catch (IOException ie) {//异常这里就不分析了

                    // Connection failed.  Let's wait a little bit and retry

                    try {

                        if (System.currentTimeMillis() - start > 5000) {

                            LOG.info("Waiting to find target node: " + target);

                        }

                        Thread.sleep(6000);

                    } catch (InterruptedException iex) {

                    }

                    if (firstTime) {

                        namenode.abandonFileInProgress(src.toString());

                    } else {

                        namenode.abandonBlock(blocksrc.toString());

                    }

                    retry = true;

                    continue;

                }

                //此时已经成功连接到了远程DataNode节点,bingo!

                // Xmit header info to datanode

                //

                DataOutputStream out = new DataOutputStream(new BufferedOutputStream(s.getOutputStream()));

//获取输出流句柄

                out.write(OP_WRITE_BLOCK);//输出行为标识

                out.writeBoolean(false);//false?

                block.write(out);//写入block信息,注意:是把从namenode获取到的block写给DataNode

                out.writeInt(nodes.length);//这一样和下面这一行是为了写入所有存储及备份的DataNode

                for (int i = 0; i < nodes.length; i++) {

                    nodes[i].write(out);//不解释

                }

                out.write(CHUNKED_ENCODING);//CHUNKED_ENCODING

                bytesWrittenToBlock = 0;//重置为0

                blockStream = out;//把句柄赋值给类的局部变量供后续使用

                blockReplyStream = new DataInputStream(new BufferedInputStream(s.getInputStream()));//同理,不解释

            } while (retry);

            firstTime = false;//firstTime在至少有一个块信息返回后就为false

 

=================================================== 

接下来要分析的函数是

 

private synchronized void internalClose() throws IOException {

            blockStream.writeLong(0);//表明长度结束了

            blockStream.flush();//把缓冲内容全部输出。

            long complete = blockReplyStream.readLong();//读取响应

            if (complete != WRITE_COMPLETE) {//如果不是结束

                LOG.info("Did not receive WRITE_COMPLETE flag: " + complete);

                throw new IOException("Did not receive WRITE_COMPLETE_FLAG: " + complete);

            }

                    

            LocatedBlock lb = new LocatedBlock();//创建一个新对象

            lb.readFields(blockReplyStream);//根据响应流来赋值

            namenode.reportWrittenBlock(lb);//namenode报告写入成功

            s.close();//关闭此流

            s = null;

        }

 

================

最后就是close函数

 

public synchronized void close() throws IOException {

            if (closed) {

                throw new IOException("Stream closed");

            }//校验是否关闭了

            flush();//尽可能的输出内容

            if (filePos == 0 || bytesWrittenToBlock != 0) {

              try {

                endBlock();//结束一个块

              } catch (IOException e) {

                namenode.abandonFileInProgress(src.toString());//抛弃此file

                throw e;

              }

            }

            backupStream.close();//关闭流

            backupFile.delete();//删除文件

            if (s != null) {

                s.close();//不解释

                s = null;

            }

            super.close();

            long localstart = System.currentTimeMillis();

            boolean fileComplete = false;

            while (! fileComplete) {//循环报告文件写完了

                fileComplete = namenode.complete(src.toString(), clientName.toString());

                if (!fileComplete) {

                    try {

                        Thread.sleep(400);

                        if (System.currentTimeMillis() - localstart > 5000) {

                            LOG.info("Could not complete file, retrying...");

                        }

                    } catch (InterruptedException ie) {

                    }

                }

            }

            closed = true;

        }

 

 

© 著作权归作者所有

共有 人打赏支持
强子1985

强子1985

粉丝 862
博文 948
码字总数 650405
作品 8
南京
架构师
Hadoop大数据入门到实战(第三节) - HDFS文件系统上(入门)

本小节我们来学习Hadoop的HDFS系统,我们先来体验一下HDFS然后再来了解他的原理。 HDFS初体验 HDFS(分布式文件管理系统),顾名思义,它就是我们用来管理海量文件的一个系统。现在是一个数据...

MasterXiao
05/29
0
0
HDFS的Shell访问和Java API访问

Shell访问HDFS常用命令 1.shell 操作单个 HDFS 集群 下面列举出几个常用场景下的命令。 1、创建文件夹 HDFS 上的文件目录结构类似 Linux,根目录使用 "/" 表示。下面的命令将在 /middle 目录...

等待救赎
2015/10/19
97
0
HDFS的运行原理,如何实现HDFS的高可用

1 HDFS的运行机制 HDFS集群中的节点分为两种角色,一种角色负责管理整个集群的元数据,是名称节点(name node);另一种角色负责存储文件数据块和管理文件数据块,是数据节点(datanode)。 1....

qq_31598113
2017/04/05
0
0
上传本地文件到hdfs

前提是安装配置好hadoop环境 1,命令上传 hdfs dfs -put /home/minstsvmlight.txt /home/minstsvmlight.txt 本地文件 hdfs上的路径 上传后的文件名并不一定和原先的一样。可以重新命名。 2,...

岁月留痕
2015/12/08
2K
0
hadoop的体系结构 hadoop hdfs 命令

hadoop的体系结构 NameNode - 主节点主服务器 SecondaryNameNode– 是辅助nameNode DataNode -数据保存用的 TaskTracker – 接收任务 JobTracker - 分数据 -100M Datanode1,DataNode2,DataNo...

八戒_o
2015/12/03
218
0

没有更多内容

加载失败,请刷新页面

加载更多

Bash重定向详解

Bash重定向详解 Bash的重定向指的是将命令的输入和输出导向不同地方,而不是默认的标准输入、标准输出和标准错误。Bash的重定向实际上是对标准输入、标准输出和标准错误的重置,进而将所需输...

小陶小陶
今天
3
0
EventBus原理深度解析

一、问题描述 在工作中,经常会遇见使用异步的方式来发送事件,或者触发另外一个动作:经常用到的框架是MQ(分布式方式通知)。如果是同一个jvm里面通知的话,就可以使用EventBus。由于Event...

yangjianzhou
今天
6
0
OpenCV图像处理实例:libuv+cvui显示摄像头视频

#include <iostream>#include <opencv2/opencv.hpp>#define CVUI_IMPLEMENTATION#include <cvui.h>extern "C"{#include <uv.h>}using namespace std;#define WINDOW_NAM......

IOTService
今天
3
0
openJDK之JDK9的String

1.openJDK8的String 先来看下openJDK8的String的底层,如下图1.1所示: 图1.1 底层上使用的是char[],即char数组 每个char占16个bit,Character.SIZE的值是16。 2.openJDK9中的String 图2.1...

克虏伯
今天
4
0
UEFI 模式下如何安装 Ubuntu 16.04

作者:知乎用户 链接:https://www.zhihu.com/question/52092661/answer/259583475 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 针对UEFI模式下安装U...

寻知者
今天
3
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部