【hadoop】HDFS

HDFS

  • 操作HDFS
    • Web Console 网页工具
      • 操作NameNode
      • 操作SecondaryNameNode
    • 命令行
    • Java API
  • HDFS的原理解析
    • 数据上传的过程
    • 数据下载的过程
  • HDFS的高级特性
    • 回收站
    • 配额Quota
      • 名称配额
      • 空间配额
    • 快照Snapshot
    • 安全模式 SafeMode
    • 权限管理:类似Linux
    • HDFS的集群
  • HDFS的底层原理:Java程序(记得重新修改)

操作HDFS

操作HDFS有三种方式,分别是 使用Web Console网页工具命令行Java API

Web Console 网页工具

操作NameNode

NameNode:端口50070
访问地址:IP/dfshealth.html

【hadoop】HDFS_第1张图片
在summary中,值得关注的是 safemode is off ,说明HDFS的安全模式是关闭的,如果是打开的,那么HDFS是处于只读的状态,不能进行操作HDFS。
【hadoop】HDFS_第2张图片
下面是HDFS启动过程,比较重要
【hadoop】HDFS_第3张图片

操作SecondaryNameNode

端口:50090
访问地址:Ip:50090/status.html

【hadoop】HDFS_第4张图片

命令行

1、普通的操作命令:hdfs dfs ****

【hadoop】HDFS_第5张图片
-mkdir 在HDFS中创建目录

hdfs dfs -mkdir /aaa
hdfs dfs -mkdir -p /bbb/ccc 如果父目录不存在,使用-p参数先创建父目录

-ls 查询HDFS的某个目录
-ls -R 查询HDFS的某个目录,包含子目录,简写:-lsr
-put 上传数据
-copyFromLocal 上传数据
-moveFromLocal 上传数据,本质ctrl+x 剪切
-copyToLocal 下载数据
-get 下载数据
【hadoop】HDFS_第6张图片
-rm 删除目录
-rmr 删除目录,包含子目录
-getmerge:先把某个目录下的文件合并,再下载
demo:

[root@bigdata111 ~]# vi student01.txt

【hadoop】HDFS_第7张图片

[root@bigdata111 ~]# vi student02.txt

【hadoop】HDFS_第8张图片

[root@bigdata111 ~]# hdfs dfs -mkdir /students
[root@bigdata111 ~]# hdfs dfs -put student0* /students
[root@bigdata111 ~]# hdfs dfs -ls /students
Found 2 items
-rw-r--r--   1 root supergroup         19 2020-02-24 10:19 /students/student01.txt
-rw-r--r--   1 root supergroup         10 2020-02-24 10:19 /students/student02.txt
[root@bigdata111 ~]# hdfs dfs -getmerge /students ./allstudents.txt

【hadoop】HDFS_第9张图片

-cp:拷贝 hdfs dfs -cp /input/data.txt /input/data2.txt
-mv:剪切
-count:举例 hdfs dfs -count /students 查看文件的个数
-du:类似-count,更详细

hdfs dfs -du /students
结果:
19  /students/student01.txt
10  /students/student02.txt

-text、-cat 查看文本文件的内容

hdfs dfs -cat /students/student01.txt

balancer:平衡操作
【hadoop】HDFS_第10张图片

2、管理的命令:hdfs dfsadmin ****

【hadoop】HDFS_第11张图片
-report:hdfs dfsadmin -report
【hadoop】HDFS_第12张图片

-safemode 安全模式

[root@bigdata111 ~]# hdfs dfsadmin -safemode
Usage: hdfs dfsadmin [-safemode enter | leave | get | wait]
[root@bigdata111 ~]# hdfs dfsadmin -safemode get
Safe mode is OFF
[root@bigdata111 ~]# hdfs dfsadmin -safemode enter
Safe mode is ON
[root@bigdata111 ~]# hdfs dfs -mkdir /xyz
mkdir: Cannot create directory /xyz. Name node is in safe mode.
[root@bigdata111 ~]# hdfs dfsadmin -safemode leave
Safe mode is OFF

Java API

操作需要包含的jar包:

$HADOOP_HOME/share/hadoop/common/*.jar
$HADOOP_HOME/share/hadoop/common/lib/*.jar
$HADOOP_HOME/share/hadoop/hdfs/*.jar
$HADOOP_HOME/share/hadoop/hdfs/lib/*.jar

方式:
Java API连接HDFS并创建文件夹
使用Java API 上传下载数据
使用Java API获取HDFS的元信息

HDFS的原理解析

数据上传的过程

【hadoop】HDFS_第13张图片

数据下载的过程

【hadoop】HDFS_第14张图片

HDFS的高级特性

回收站

默认回收站是关闭的,可以通过在 core-site.xml 中添加 fs.trash.interval 来打开幵配置时间阀值。

<property>
	<name>fs.trash.intervalname>
	<value>1440value>
property>

可以设置一个时间阈值,当回收站里文件的存放时间超过返个阈值,就被彻底删除,并且释放占用的数据块,比如上面就设置了一个1440分钟的阀值。

在这里插入图片描述
在这里插入图片描述
从回收站里恢复文件
【hadoop】HDFS_第15张图片

配额Quota

名称配额

名称配额:规定的是某个HDFS目录下文件的个数,
比如:设置名称配额是N,表示只能在该目录下存放N-1个文件或者目录

hdfs dfsadmin [-setQuota <quota> <dirname>...<dirname>]
hdfs dfsadmin [-clrQuota <dirname>...<dirname>]

举例:

hdfs dfs -mkdir /t1 

设置该目录的名称配额是3,所以该目录下只能放两个文件或文件夹。

hdfs dfsadmin -setQuota 3 /t1 

【hadoop】HDFS_第16张图片

空间配额

空间配额:规定的是某个HDFS目录下文件的大小
比如:设置某个HDFS目录的空间配额是200M,只能存放200M以下的文件

hdfs dfsadmin [-setSpaceQuota <quota> [-storageType <storagetype>] <dirname>...<dirname>]
hdfs dfsadmin [-clrSpaceQuota [-storageType <storagetype>] <dirname>...<dirname>]

举例:

hdfs dfs -mkdir /t2

设置该目录的空间配额是1M (逻辑单位)

hdfs dfsadmin -setSpaceQuota 1M /t2

上传一个超过1M,大小为50M的文件,会发生下面的错误:

The DiskSpace quota of /t2 is exceeded: quota = 1048576 B = 1 MB but diskspace consumed = 134217728 B = 128 MB

由于是50M文件,占用一个数据块,所以会提示128M。

快照Snapshot

一个snapshot(快照)是一个全部文件系统、或者某个目录在某一时刻的镜像。(本质:就是cp命令)

【hadoop】HDFS_第17张图片

安全模式 SafeMode

安全模式是hadoop的一种保护机制,用于保证集群中的数据块的安全性。如果HDFS处于
安全模式,则表示HDFS是只读状态。

安全模式的作用:当集群启动的时候,会首先进入安全模式。当系统处于安全模式时会检查数据块的完整性。(数据块是否满足冗余度的要求)
假设我们设置的副本数/冗余度(即参数dfs.replication)是5,那么在datanode上就应该有5个副本存在,假设只存在3个副本,那么比例就是3/5=0.6。在配置文件hdfs-default.xml中定义了一个最小的副本的副本率0.999。我们的副本率0.6明显小于0.99,因此系统会自动的复制副本到其他的dataNode,使得副本率不小于0.999.如果系统中有8个副本,超过我们设定的5个副本,那么系统也会删除多余的3个副本。

hdfs dfsadmin -safemode get 查看安全模式状态
hdfs dfsadmin -safemode enter 进入安全模式状态
hdfs dfsadmin -safemode leave 离开安全模式

权限管理:类似Linux

HDFS的集群

集群的两大功能和解决方式:
(1)负载均衡:联盟Federation
(2)失败迁移(单点故障):HA

注意:联盟是HDFS特有的,但HA是主从架构共有的

【hadoop】HDFS_第18张图片

HDFS的底层原理:Java程序(记得重新修改)

1、Java的代理对象Proxy
【hadoop】HDFS_第19张图片
案例:利用Java的代理对象实现数据库的连接池。
(1)通过连接池返回一个Connection对象
(2)使用完后,connection.close,把该连接直接还给数据库
(3)重写close方法,把该连接还给数据库的连接池

准备实验环境:MySQL的数据库
如何安装MySQL,在Hive的时候,再介绍

2、RPC协议(remote procedure call远程过程调用)

你可能感兴趣的:(hadoop,hadoop,hdfs,大数据)