阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop连载系列之五:Hadoop命令行详解

115次阅读
没有评论

共计 12459 个字符,预计需要花费 32 分钟才能阅读完成。

1 Hadoop fs

——————————————————————————–
该 hadoop 子命令集执行的根目录是 /home 目录,本机上为 /user/root

——————————————————————————–
1、列出所有 Hadoop Shell 支持的命令
$ bin/hadoop fs -help 

2、显示关于某个命令的详细信息
$ bin/hadoop fs -help command-name

3、用户可使用以下命令在指定路径下查看历史日志汇总(输出目录)
$ bin/hadoop job -history output-dir
这条命令会显示作业的细节信息,失败和终止的任务细节。

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看
$ bin/hadoop job -history all output-dir

5、格式化一个新的分布式文件系统
$ bin/hadoop namenode -format

6、在分配的 NameNode 上,运行下面的命令启动 HDFS
$ bin/start-dfs.sh
bin/start-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 DataNode 守护进程。

7、在分配的 JobTracker 上,运行下面的命令启动 Map/Reduce:
$ bin/start-mapred.sh
bin/start-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 TaskTracker 守护进程。

8、在分配的 NameNode 上,执行下面的命令停止 HDFS:
$ bin/stop-dfs.sh
bin/stop-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 DataNode 守护进程。

9、在分配的 JobTracker 上,运行下面的命令停止 Map/Reduce:
$ bin/stop-mapred.sh
bin/stop-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 TaskTracker 守护进程。

2 DFS Shell

——————————————————————————–
10、hadoop dfs 命令执行的根目录为“/”

11、创建一个 jay 目录
$ bin/hadoop dfs -mkdir /jay

12、查看名为 /foodir/myfile.txt 的文件内容
$ bin/hadoop dfs -cat /foodir/myfile.txt

3 DFSAdmin

——————————————————————————–
13、将集群置于安全模式
$ bin/hadoop dfsadmin -safemode enter

14、显示 Datanode 列表
$ bin/hadoop dfsadmin -report

15、使 Datanode 节点 datanodename 退役
$ bin/hadoop dfsadmin -decommission datanodename

16、bin/hadoop dfsadmin -help 命令能列出所有当前支持的命令。比如:
* -report:报告 HDFS 的基本统计信息。有些信息也可以在 NameNodeWeb 服务首页看到。
* -safemode:虽然通常并不需要,但是管理员的确可以手动让 NameNode 进入或离开安全模式。

*-finalizeUpgrade:删除上一次升级时制作的集群备份。

17、显式地将 HDFS 置于安全模式
$ bin/hadoop dfsadmin -safemode

18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件
$ bin/hadoop dfsadmin -finalizeUpgrade

19、能够知道是否需要对一个集群执行升级终结操作。
$ bin/hadoop dfsadmin -upgradeProgress status

20、使用 -upgrade 选项运行新的版本
$ bin/start-dfs.sh -upgrade

21、如果需要退回到老版本, 就必须停止集群并且部署老版本的 Hadoop,用回滚选项启动集群
$ bin/start-dfs.h -rollback

22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。
* dfsadmin -setquota <N> <directory>…<directory>
把每个目录配额设为 N。这个命令会在每个目录上尝试,如果 N 不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。

*dfsadmin -clrquota <directory>…<director>
为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。

*fs -count -q <directory>…<directory>
使用 - q 选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告 none 和 inf。

23、创建一个 hadoop 档案文件
$hadoop archive -archiveName NAME <src>* <dest>
-archiveName NAME 要创建的档案的名字。
src 文件系统的路径名,和通常含正则表达的一样。
dest 保存档案文件的目标目录。

24、递归地拷贝文件或目录
$hadoop distcp <srcurl> <desturl>
srcurl  源 Url
desturl 目标 Url

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

4 Hadoop fsck

——————————————————————————–
25、运行 HDFS 文件系统检查工具 (fsck tools)
用法:hadoop fsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite][-files [-blocks [-locations | -racks]]]
命令选项                                    描述
<path>                            检查的起始目录。
-move                    移动受损文件到 /lost+found
-delete                            删除受损文件。
-openforwrite            打印出写打开的文件。
-files                        打印出正被检查的文件。
-blocks                            打印出块信息报告。
-locations                    打印出每个块的位置信息。
-racks                打印出 data-node 的网络拓扑结构。

5 用于 Map Reduce 作业交互命令(jar)

——————————————————————————–
26、用于和 MapReduce 作业交互和命令 (jar)
用法:hadoopjob [GENERIC_OPTIONS] [-submit <job-file>] | [-status <job-id>]| [-counter <job-id> <group-name> <counter-name>] |[-kill <job-id>] | [-events <job-id> <from-event-#><#-of-events>] | [-history [all] <jobOutputDir>] | [-list[all]] | [-kill-task <task-id>] | [-fail-task<task-id>]
命令选项                                                                                                            描述
-submit <job-file>                                                                                      提交作业
-status <job-id>                                                  打印 map 和 reduce 完成百分比和所有计数器。
-counter<job-id> <group-name> <counter-name>                        打印计数器的值。
-kill<job-id>                                                                                            杀死指定作业。
-events<job-id> <from-event-#><#-of-events>    打印给定范围内 jobtracker 接收到的事件细节。
-history[all] <jobOutputDir> -history                        打印作业的细节、失败及被杀死原因的细节。更多的

<jobOutputDir>                                                        关于一个作业的细节比如成功的任务,做过的任务尝试等信息可以通过指定 [all] 选项查看

 

-list [all]  -list all                                                      显示所有作业。-list 只显示将要完成的作业。
-kill-task<task-id>                                              杀死任务。被杀死的任务不会不利于失败尝试。
-fail-task<task-id>                                            使任务失败。被失败的任务会对失败尝试不利。

6 运行 pipes 作业

——————————————————————————–
27、运行 pipes 作业
用法:
hadoop pipes [-conf <path>] [-jobconf <key=value>, <key=value>,…] [-input <path>] [-output <path>] [-jar <jarfile>] [-inputformat <class>] [-map <class>][-partitioner <class>]  [-reduce <class>] [-writer<class>] [-program <executable>] [-reduces<num>]
命令选项                                                                                                        描述
-conf<path>                                                                                            作业的配置
-jobconf<key=value>, <key=value>, …                                    增加 / 覆盖作业的配置项
-input<path>                                                                                                输入目录
-output<path>                                                                                            输出目录
-jar<jar file> Jar                                                                                            文件名
-inputformat<class>                                                                              InputFormat 类
-map<class>                                                                                                  Java Map 类
-partitioner<class>                                                                                  Java Partitioner
-reduce <class>                                                                                    Java Reduce 类
-writer<class>                                                                                Java RecordWriter
-program <executable>                                                                        可执行程序的 URI
-reduces<num>                                                                                        reduce 个数

7 其他命令

——————————————————————————–
28、打印版本信息。
用法:hadoop version

29、hadoop 脚本可用于调用任何类。
用法:hadoop CLASSNAME
运行名字为 CLASSNAME 的类。

30、运行集群平衡工具。管理员可以简单的按 Ctrl- C 来停止平衡过程 (balancer)
用法:hadoop balancer [-threshold <threshold>]
命令选项                                                    描述
-threshold<threshold>                磁盘容量的百分比。这会覆盖缺省的阀值。

31、获取或设置每个守护进程的日志级别 (daemonlog)。
用法:hadoop daemonlog -getlevel <host:port> <name>
用法:hadoop daemonlog -setlevel <host:port> <name><level>
命令选项                                                                                                描述
-getlevel<host:port><name>                                    打印运行在 <host:port> 的守护进程的日志级别。这个命令内部会连接 http://<host:port>/logLevel?log=<name>
-setlevel<host:port> <name><level>                        设置运行在 <host:port> 的守护进程的日志级别。这个命令内部会连接 http://<host:port>/logLevel?log=<name>

32、运行一个 HDFS 的 datanode。
用法:hadoop datanode [-rollback]
命令选项                                                                                        描述
-rollback                                                            将 datanode 回滚到前一个版本。这需要在停止 datanode,分发老的 hadoop 版本之后使用。

33、运行一个 HDFS 的 dfsadmin 客户端。
用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get |wait] [-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status |details | force] [-metasave filename] [-setQuota <quota><dirname>…<dirname>] [-clrQuota <dirname>…<dirname>][-help[cmd]]
命令选项                                                                                                        描述
-report                                                                    报告文件系统的基本信息和统计信息。
-safemodeenter | leave | get |wait                        安全模式维护命令。安全模式是 Namenode 的一个状态,这种状态下,Namenode:1. 不接受对名字空间的更改(只读);2. 不复制或删除块。Namenode 会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手动进入,但是这样的话也必须手动关闭安全模式。
-refreshNodes                                                            重新读取 hosts 和 exclude 文件,更新允许连到 Namenode 的或那些需要退出或入编的 Datanode 的集合。
-finalizeUpgrade                                                        终结 HDFS 的升级操作。Datanode 删除前一个版本的工作目录,之后 Namenode 也这样做。这个操作完结整个升级过程。
-upgradeProgressstatus | details | force                    请求当前系统的升级状态,状态的细节,或者强制升级操作进行。
-metasavefilename                                                    保存 Namenode 的主要数据结构到 hadoop.log.dir 属性指定的目录下的 <filename> 文件。对于下面的每一项,<filename> 中都会一行内容与之对应:
1.Namenode 收到的 Datanode 的心跳信号
2. 等待被复制的块
3. 正在被复制的块
4. 等待被删除的块

-setQuota<quota> <dirname>…<dirname>                  为每个目录 <dirname> 设定配额 <quota>。目录配额是一个长整型整数,强制限定了目录树下的名字个数。
命令会在这个目录上工作良好,以下情况会报错:
1.N 不是一个正整数,或者
2. 用户不是管理员,或者
3. 这个目录不存在或是文件,或者
4. 目录会马上超出新设定的配额。

-clrQuota<dirname>…<dirname>                                    为每一个目录 <dirname> 清除配额设定。命令会在这个目录上工作良好,以下情况会报错:
1. 这个目录不存在或是文件,或者
2. 用户不是管理员。
如果目录原来没有配额不会报错。
-help[cmd] 显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮助信息。

34、运行 MapReducejob Tracker 节点 (jobtracker)。
用法:hadoop jobtracker

35、运行 namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。
用法:hadoop namenode [-format] | [-upgrade] | [-rollback] | [-finalize] |[-importCheckpoint]
命令选项                                                                                    描述
-format                                                            格式化 namenode。它启动 namenode,格式化 namenode,之后关闭 namenode。
-upgrade                                                            分发新版本的 hadoop 后,namenode 应以 upgrade                                                                选项启动。
-rollback                                                                    将 namenode 回滚到前一版本。这个选项要在停止集群,分发老的 hadoop 版本后使用。
-finalizefinalize                                                            会删除文件系统的前一状态。最近的升级会被持久化,rollback 选项将再不可用,升级终结操作之后,它会停掉 namenode。
-importCheckpoint                                                从检查点目录装载镜像并保存到当前检查点目录,检查点目录由 fs.checkpoint.dir 指定。

36、运行 HDFS 的 secondarynamenode。
用法:hadoop secondarynamenode [-checkpoint [force]] |[-geteditsize]
命令选项                                                                                                描述

-checkpoint [force]                                                                    如果 EditLog 的大小 >= fs.checkpoint.size,启动 Secondarynamenode 的检查点过程。如果使用了 -force,将不考虑 EditLog 的大小。
-geteditsize                                                                                        打印 EditLog 大小。

37、运行 MapReduce 的 taskTracker 节点。
用法:hadoop tasktracker

8 总结

——————————————————————————–
此文只做参考,具体的命令行可自行 man。

1 Hadoop fs

——————————————————————————–
该 hadoop 子命令集执行的根目录是 /home 目录,本机上为 /user/root

——————————————————————————–
1、列出所有 Hadoop Shell 支持的命令
$ bin/hadoop fs -help 

2、显示关于某个命令的详细信息
$ bin/hadoop fs -help command-name

3、用户可使用以下命令在指定路径下查看历史日志汇总(输出目录)
$ bin/hadoop job -history output-dir
这条命令会显示作业的细节信息,失败和终止的任务细节。

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看
$ bin/hadoop job -history all output-dir

5、格式化一个新的分布式文件系统
$ bin/hadoop namenode -format

6、在分配的 NameNode 上,运行下面的命令启动 HDFS
$ bin/start-dfs.sh
bin/start-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 DataNode 守护进程。

7、在分配的 JobTracker 上,运行下面的命令启动 Map/Reduce:
$ bin/start-mapred.sh
bin/start-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 TaskTracker 守护进程。

8、在分配的 NameNode 上,执行下面的命令停止 HDFS:
$ bin/stop-dfs.sh
bin/stop-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 DataNode 守护进程。

9、在分配的 JobTracker 上,运行下面的命令停止 Map/Reduce:
$ bin/stop-mapred.sh
bin/stop-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 TaskTracker 守护进程。

2 DFS Shell

——————————————————————————–
10、hadoop dfs 命令执行的根目录为“/”

11、创建一个 jay 目录
$ bin/hadoop dfs -mkdir /jay

12、查看名为 /foodir/myfile.txt 的文件内容
$ bin/hadoop dfs -cat /foodir/myfile.txt

3 DFSAdmin

——————————————————————————–
13、将集群置于安全模式
$ bin/hadoop dfsadmin -safemode enter

14、显示 Datanode 列表
$ bin/hadoop dfsadmin -report

15、使 Datanode 节点 datanodename 退役
$ bin/hadoop dfsadmin -decommission datanodename

16、bin/hadoop dfsadmin -help 命令能列出所有当前支持的命令。比如:
* -report:报告 HDFS 的基本统计信息。有些信息也可以在 NameNodeWeb 服务首页看到。
* -safemode:虽然通常并不需要,但是管理员的确可以手动让 NameNode 进入或离开安全模式。

*-finalizeUpgrade:删除上一次升级时制作的集群备份。

17、显式地将 HDFS 置于安全模式
$ bin/hadoop dfsadmin -safemode

18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件
$ bin/hadoop dfsadmin -finalizeUpgrade

19、能够知道是否需要对一个集群执行升级终结操作。
$ bin/hadoop dfsadmin -upgradeProgress status

20、使用 -upgrade 选项运行新的版本
$ bin/start-dfs.sh -upgrade

21、如果需要退回到老版本, 就必须停止集群并且部署老版本的 Hadoop,用回滚选项启动集群
$ bin/start-dfs.h -rollback

22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。
* dfsadmin -setquota <N> <directory>…<directory>
把每个目录配额设为 N。这个命令会在每个目录上尝试,如果 N 不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。

*dfsadmin -clrquota <directory>…<director>
为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。

*fs -count -q <directory>…<directory>
使用 - q 选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告 none 和 inf。

23、创建一个 hadoop 档案文件
$hadoop archive -archiveName NAME <src>* <dest>
-archiveName NAME 要创建的档案的名字。
src 文件系统的路径名,和通常含正则表达的一样。
dest 保存档案文件的目标目录。

24、递归地拷贝文件或目录
$hadoop distcp <srcurl> <desturl>
srcurl  源 Url
desturl 目标 Url

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

正文完
星哥说事-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计12459字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中