分布式第二次实验。
首先
使用master节点进行操作,另外两个节点也要开机。
先进入root账户
1 | sudo su root |
将bin目录和sbin目录里的命令配入环境变量
1 | vim ~/.bashrc |
按下i
,在最后添加一行:
1 | export PATH=$PATH:/usr/local/hadoop/hadoop-2.8.5/sbin:/usr/local/hadoop/hadoop-2.8.5/bin |
然后按下esc
,输入:wq
写入文件。
启动Hadoop
1 | start-all.sh |
HDFS命令
查看HDFS上当前目录下所有文件
1 | hadoop fs -ls / |
递归查看HDFS上当前目录下所有文件
这条命令会递归进入每个文件夹,展示出所有文件。
1 | hadoop fs -ls -R / |
在HDFS上新建文件夹
方式1 逐个建立文件夹
1 | hadoop fs -mkdir /user |
方式2 递归建立文件夹
这种方式下,如果要建立的文件夹父目录不存在则同时建立父目录的文件夹。
1 | hadoop fs -mkdir -p /user/hadoop-user/ |
本地准备一份文件
1 | cd /tmp/ |
写入:
1 | Distributed System 2019Spring |
然后按下esc
,输入:wq
写入文件。
向HDFS上传文件
1 | hadoop fs -put /tmp/charles1/ds2019.txt /user/hadoop-user/ |
查看是否上传成功
1 | hadoop fs -ls -R / |
在Terminal显示文件内容
1 | hadoop fs -cat /user/hadoop-user/ds2019.txt |
下载HDFS上的文件
1 | hadoop fs -get /user/hadoop-user/ds2019.txt /tmp/charles2 |
删除HDFS上的文件
方式1 删除某个文件
1 | hadoop fs -rm /user/hadoop-user/ds2019.txt |
方式2 递归删除文件夹
若被删除的文件夹下还有文件,则一同删除
1 | hadoop fs -rm -r /user/ |