阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop基本操作命令大全

109次阅读
没有评论

共计 12569 个字符,预计需要花费 32 分钟才能阅读完成。

启动 Hadoop

start-all.sh

关闭 HADOOP

stop-all.sh

查看文件列表

查看 hdfs 中 /user/admin/aaron 目录下的文件。

hadoop fs -ls /user/admin/aaron

列出 hdfs 中 /user/admin/aaron 目录下的所有文件(包括子目录下的文件)。

hadoop fs -lsr /user/admin/aaron

创建文件目录

hadoop fs -mkdir /user/admin/aaron/newDir

删除文件

删除 hdfs 中 /user/admin/aaron 目录下一个名叫 needDelete 的文件

hadoop fs -rm /user/admin/aaron/needDelete

删除 hdfs 中 /user/admin/aaron 目录以及该目录下的所有文件

hadoop fs -rmr /user/admin/aaron

上传文件

hadoop fs –put /home/admin/newFile /user/admin/aaron/

下载文件

hadoop fs –get /user/admin/aaron/newFile /home/admin/newFile

查看文件

hadoop fs –cat /home/admin/newFile

新建一个空文件

hadoop  fs  -touchz /user/new.txt

将 hadoop 上某个文件重命名

hadoop  fs  –mv /user/test.txt  /user/ok.txt

将 hadoop 指定目录下所有内容保存为一个文件,同时 down 至本地

hadoop dfs –getmerge  /user /home/t

提交 MAPREDUCE JOB

h bin/hadoop jar /home/admin/hadoop/job.jar [jobMainClass] [jobArgs]

杀死某个正在运行的 JOB

hadoop job -kill job_201005310937_0053

更多 HADOOP 的命令

hadoop

可以看到更多命令的说明信息:

  namenode -format        format the DFS filesystem

  secondarynamenode    run the DFS secondary namenode

  namenode                      run the DFS namenode

  datanode                        run a DFS datanode

  dfsadmin                        run a DFS admin client

  fsck                                  run a DFS filesystem checking utility

  fs                                      run a generic filesystem user client

  balancer                        run a cluster balancing utility

  jobtracker                      run the MapReduce job Tracker node

  pipes                              run a Pipes job

  tasktracker                    run a MapReduce task Tracker node

  job                                  manipulate MapReduce jobs

  queue                            get information regarding JobQueues

  version                          print the version

  jar <jar>            run a jar file

  distcp <srcurl> <desturl> copy file or directories recursively

  archive -archiveName NAME <src>* <dest> create a hadoop archive

  daemonlog            get/set the log level for each daemon

 or

  CLASSNAME            run the class named CLASSNAME

Most commands print help when invoked w/o parameters.

说明:

1、列出所有 Hadoop Shell 支持的命令

  $bin/hadoop fs -help

2、显示关于某个命令的详细信息

  $bin/hadoop fs -help command-name

3、用户可使用以下命令在指定路径下查看历史日志汇总,显示作业的细节信息,失败和终止的任务细节

  $bin/hadoop job -history output-dir

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看

  $bin/hadoop job -history all output-dir

5、格式化一个新的分布式文件系统

  $bin/hadoop namenode -format

6、在分配的 NameNode 上,运行下面的命令启动 HDFS,所有列出的 slave 上启动 DataNode 守护进程

  $bin/start-dfs.sh

7、在分配的 JobTracker 上,运行下面的命令启动 Map/Reduce

  $bin/start-mapred.sh

8、在分配的 NameNode 上,执行下面的命令停止 HDFS:

  $bin/stop-dfs.sh

9、在分配的 JobTracker 上,运行下面的命令停止 Map/Reduce:

  $bin/stop-mapred.sh

 

DFSShell

10、创建一个名为 /foodir 的目录

  $bin/hadoop dfs -mkdir /foodir

11、创建一个名为 /foodir 的目录

  $bin/hadoop dfs -mkdir /foodir

12、查看名为 /foodir/myfile.txt 的文件内容

  $bin/hadoop dfs -cat /foodir/myfile.txt

 

DFSAdmin

13、将集群置于安全模式

  $bin/hadoop dfsadmin -safemode enter

14、显示 Datanode 列表

  $bin/hadoop dfsadmin -report

15、使 Datanode 节点 datanodename 退役

  $bin/hadoop dfsadmin -decommission datanodename

16、bin/hadoop dfsadmin-help 命令能列出所有当前支持的命令。比如:

    *-report:报告 HDFS 的基本统计信息。有些信息可以在 NameNode Web 服务首页看到。

    *-safemode:通常并不需要,管理员的确可以手动让 NameNode 进入或离开安全模式。

    *-finalizeUpgrade:删除上一次升级时制作的集群备份。

17、显式地将 HDFS 置于安全模式

  $bin/hadoop dfsadmin -safemode

18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件

  $bin/hadoop dfsadmin -finalizeUpgrade

19、能够知道是否需要对一个集群执行升级终结操作。

  $dfsadmin -upgradeProgress status

20、使用 -upgrade 选项运行新的版本

  $bin/start-dfs.sh -upgrade

21、需要退回到老版本, 就必须停止集群并且部署老版本的 Hadoop,用回滚选项启动集群

  $bin/start-dfs.h -rollback

22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。

    *dfsadmin -setquota <N> <directory>…<directory>

把每个目录配额设为 N。这个命令会在每个目录上尝试,如果 N 不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。

    *dfsadmin -clrquota <directory>…<director>

为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。

    *fs -count -q <directory>…<directory>

使用 - q 选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告 none 和 inf。

23、创建一个 hadoop 档案文件

  $hadoop archive -archiveName NAME <src>* <dest>

    -archiveName NAME  要创建的档案的名字。

    src 文件系统的路径名,和通常含正则表达的一样。

    dest 保存档案文件的目标目录。

24、递归拷贝文件或目录

  $hadoop distcp <srcurl> <desturl>

    srcurl      源 Url

    desturl    目标 Url

 

25、运行 HDFS 文件系统检查工具 (fsck tools)
用法:hadoopfsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite] [-files[-blocks [-locations | -racks]]]

命令选项描述
<path>      检查的起始目录。
-move            移动受损文件到 /lost+found
-delete    删除受损文件。
-openforwrite    打印出写打开的文件。
-files            打印出正被检查的文件。
-blocks    打印出块信息报告。
-locations    打印出每个块的位置信息。
-racks            打印出 data-node 的网络拓扑结构。
26、用于和 Map Reduce 作业交互和命令(jar)
用法:Hadoopjob [GENERIC_OPTIONS] [-submit <job-file>] | [-status <job-id>] |[-counter <job-id> <group-name> <counter-name>] | [-kill<job-id>] | [-events <job-id> <from-event-#><#-of-events>] | [-history [all] <jobOutputDir>] | [-list [all]] |[-kill-task <task-id>] | [-fail-task <task-id>]
命令选项描述
-submit<job-file>                                          提交作业
-status<job-id>                                          打印 map 和 reduce 完成百分比和所有计数器。
-counter<job-id> <group-name> <counter-name>                  打印计数器的值。
-kill<job-id>                                                  杀死指定作业。
-events<job-id> <from-event-#> <#-of-events>                  打印给定范围内 jobtracker 接收到的事件细节。
-history [all]<jobOutputDir>    -history<jobOutputDir>        打印作业的细节、失败及被杀死原因的细节。更多的关于一个作业的细节比如
成功的任务,做过的任务尝试等信息可以通过指定 [all] 选项查看。
-list [all]    -listall                                      显示所有作业。-list 只显示将要完成的作业。
-kill-task<task-id>                                          杀死任务。被杀死的任务不会不利于失败尝试。
-fail-task<task-id>                                          使任务失败。被失败的任务会对失败尝试不利。
27、运行 pipes 作业
用法:hadooppipes [-conf <path>] [-jobconf <key=value>, <key=value>, …][-input <path>] [-output <path>] [-jar <jar file>][-inputformat <class>] [-map <class>] [-partitioner <class>][-reduce <class>] [-writer <class>] [-program <executable>][-reduces <num>]
命令选项描述
-conf <path>                              作业的配置
-jobconf<key=value>, <key=value>, …      增加 / 覆盖作业的配置项
-input <path>                            输入目录
-output<path>                        输出目录
-jar <jarfile>                    Jar 文件名
-inputformat<class>                      InputFormat 类
-map <class>                            JavaMap 类
-partitioner<class>                    JavaPartitioner
-reduce<class>                    JavaReduce 类
-writer<class>                    JavaRecordWriter
-program <executable>                    可执行程序的 URI
-reduces<num>                            reduce 个数
28、打印版本信息。
用法:hadoop version
29、hadoop 脚本可用于调调用任何类。
用法:hadoop CLASSNAME
运行名字为 CLASSNAME 的类。
30、运行集群平衡工具。管理员可以简单的按 Ctrl- C 来停止平衡过程 (balancer)
用法:hadoop balancer [-threshold <threshold>]
命令选项描述
-threshold<threshold>                    磁盘容量的百分比。这会覆盖缺省的阀值。
31、获取或设置每个守护进程的日志级别(daemonlog)。
用法:hadoopdaemonlog -getlevel <host:port> <name>
用法:hadoopdaemonlog -setlevel <host:port> <name> <level>
命令选项描述
-getlevel<host:port> <name>                      打印运行在 <host:port> 的守护进程的日志级别。这个命令内部会连接 http://<host:port>/logLevel?log=<name>
-setlevel<host:port> <name> <level>              设置运行在 <host:port> 的守护进程的日志级别。这个命令内部会连接 http://<host:port>/logLevel?log=<name>
32、运行一个 HDFS 的 datanode。
用法:hadoopdatanode [-rollback]
命令选项描述
-rollback                                      将 datanode 回滚到前一个版本。这需要在停止 datanode,分发老的 hadoop 版本之后使用。
33、运行一个 HDFS 的 dfsadmin 客户端。
用法:hadoopdfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get | wait][-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status | details | force][-metasave filename] [-setQuota <quota><dirname>…<dirname>] [-clrQuota<dirname>…<dirname>] [-help [cmd]]
命令选项描述
-report                                                      报告文件系统的基本信息和统计信息。
-safemode enter |leave | get | wait                              安全模式维护命令。安全模式是 Namenode 的一个状态,这种状态下,Namenode
1. 不接受对名字空间的更改(只读)
2. 不复制或删除块
Namenode 会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手动进入,但是这样的话也必须手动关闭安全模式。
-refreshNodes                                    重新读取 hosts 和 exclude 文件,更新允许连到 Namenode 的或那些需要退出或入编的 Datanode 的集合。
-finalizeUpgrade                            终结 HDFS 的升级操作。Datanode 删除前一个版本的工作目录,之后 Namenode 也这样做。这个操作完结整个升级过程。
-upgradeProgressstatus | details | force      请求当前系统的升级状态,状态的细节,或者强制升级操作进行。
-metasave filename                            保存 Namenode 的主要数据结构到 hadoop.log.dir 属性指定的目录下的 <filename> 文件。对于下面的每一项,
                                                <filename> 中都会一行内容与之对应
1. Namenode 收到的 Datanode 的心跳信号
2. 等待被复制的块
3. 正在被复制的块
4. 等待被删除的块
-setQuota <quota><dirname>…<dirname>    为每个目录 <dirname> 设定配额 <quota>。目录配额是一个长整型整数,强制限定了目录树下的名字个数。
命令会在这个目录上工作良好,以下情况会报错:
1. N 不是一个正整数,或者
2. 用户不是管理员,或者
3. 这个目录不存在或是文件,或者
4. 目录会马上超出新设定的配额。
-clrQuota<dirname>…<dirname>    为每一个目录 <dirname> 清除配额设定。
命令会在这个目录上工作良好,以下情况会报错:
1. 这个目录不存在或是文件,或者
2. 用户不是管理员。
如果目录原来没有配额不会报错。
-help [cmd]    显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮助信息。
34、运行 MapReduce job Tracker 节点 (jobtracker)。
用法:hadoopjobtracker
35、运行 namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。
用法:hadoopnamenode [-format] | [-upgrade] | [-rollback] | [-finalize] |[-importCheckpoint]
命令选项描述
-format                            格式化 namenode。它启动 namenode,格式化 namenode,之后关闭 namenode。
-upgrade                            分发新版本的 hadoop 后,namenode 应以 upgrade 选项启动。
-rollback                            将 namenode 回滚到前一版本。这个选项要在停止集群,分发老的 hadoop 版本后使用。
-finalize                            finalize 会删除文件系统的前一状态。最近的升级会被持久化,rollback 选项将再
不可用,升级终结操作之后,它会停掉 namenode。
-importCheckpoint                    从检查点目录装载镜像并保存到当前检查点目录,检查点目录由 fs.checkpoint.dir 指定。
36、运行 HDFS 的 secondary namenode。
用法:hadoopsecondarynamenode [-checkpoint [force]] | [-geteditsize]
命令选项描述
-checkpoint [force]                    如果 EditLog 的大小 >= fs.checkpoint.size,启动 Secondary namenode 的检查点
过程。如果使用了 -force,将不考虑 EditLog 的大小。
-geteditsize                            打印 EditLog 大小。

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

启动 Hadoop

start-all.sh

关闭 HADOOP

stop-all.sh

查看文件列表

查看 hdfs 中 /user/admin/aaron 目录下的文件。

hadoop fs -ls /user/admin/aaron

列出 hdfs 中 /user/admin/aaron 目录下的所有文件(包括子目录下的文件)。

hadoop fs -lsr /user/admin/aaron

创建文件目录

hadoop fs -mkdir /user/admin/aaron/newDir

删除文件

删除 hdfs 中 /user/admin/aaron 目录下一个名叫 needDelete 的文件

hadoop fs -rm /user/admin/aaron/needDelete

删除 hdfs 中 /user/admin/aaron 目录以及该目录下的所有文件

hadoop fs -rmr /user/admin/aaron

上传文件

hadoop fs –put /home/admin/newFile /user/admin/aaron/

下载文件

hadoop fs –get /user/admin/aaron/newFile /home/admin/newFile

查看文件

hadoop fs –cat /home/admin/newFile

新建一个空文件

hadoop  fs  -touchz /user/new.txt

将 hadoop 上某个文件重命名

hadoop  fs  –mv /user/test.txt  /user/ok.txt

将 hadoop 指定目录下所有内容保存为一个文件,同时 down 至本地

hadoop dfs –getmerge  /user /home/t

提交 MAPREDUCE JOB

h bin/hadoop jar /home/admin/hadoop/job.jar [jobMainClass] [jobArgs]

杀死某个正在运行的 JOB

hadoop job -kill job_201005310937_0053

更多 HADOOP 的命令

hadoop

可以看到更多命令的说明信息:

  namenode -format        format the DFS filesystem

  secondarynamenode    run the DFS secondary namenode

  namenode                      run the DFS namenode

  datanode                        run a DFS datanode

  dfsadmin                        run a DFS admin client

  fsck                                  run a DFS filesystem checking utility

  fs                                      run a generic filesystem user client

  balancer                        run a cluster balancing utility

  jobtracker                      run the MapReduce job Tracker node

  pipes                              run a Pipes job

  tasktracker                    run a MapReduce task Tracker node

  job                                  manipulate MapReduce jobs

  queue                            get information regarding JobQueues

  version                          print the version

  jar <jar>            run a jar file

  distcp <srcurl> <desturl> copy file or directories recursively

  archive -archiveName NAME <src>* <dest> create a hadoop archive

  daemonlog            get/set the log level for each daemon

 or

  CLASSNAME            run the class named CLASSNAME

Most commands print help when invoked w/o parameters.

说明:

1、列出所有 Hadoop Shell 支持的命令

  $bin/hadoop fs -help

2、显示关于某个命令的详细信息

  $bin/hadoop fs -help command-name

3、用户可使用以下命令在指定路径下查看历史日志汇总,显示作业的细节信息,失败和终止的任务细节

  $bin/hadoop job -history output-dir

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看

  $bin/hadoop job -history all output-dir

5、格式化一个新的分布式文件系统

  $bin/hadoop namenode -format

6、在分配的 NameNode 上,运行下面的命令启动 HDFS,所有列出的 slave 上启动 DataNode 守护进程

  $bin/start-dfs.sh

7、在分配的 JobTracker 上,运行下面的命令启动 Map/Reduce

  $bin/start-mapred.sh

8、在分配的 NameNode 上,执行下面的命令停止 HDFS:

  $bin/stop-dfs.sh

9、在分配的 JobTracker 上,运行下面的命令停止 Map/Reduce:

  $bin/stop-mapred.sh

 

DFSShell

10、创建一个名为 /foodir 的目录

  $bin/hadoop dfs -mkdir /foodir

11、创建一个名为 /foodir 的目录

  $bin/hadoop dfs -mkdir /foodir

12、查看名为 /foodir/myfile.txt 的文件内容

  $bin/hadoop dfs -cat /foodir/myfile.txt

 

DFSAdmin

13、将集群置于安全模式

  $bin/hadoop dfsadmin -safemode enter

14、显示 Datanode 列表

  $bin/hadoop dfsadmin -report

15、使 Datanode 节点 datanodename 退役

  $bin/hadoop dfsadmin -decommission datanodename

16、bin/hadoop dfsadmin-help 命令能列出所有当前支持的命令。比如:

    *-report:报告 HDFS 的基本统计信息。有些信息可以在 NameNode Web 服务首页看到。

    *-safemode:通常并不需要,管理员的确可以手动让 NameNode 进入或离开安全模式。

    *-finalizeUpgrade:删除上一次升级时制作的集群备份。

17、显式地将 HDFS 置于安全模式

  $bin/hadoop dfsadmin -safemode

18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件

  $bin/hadoop dfsadmin -finalizeUpgrade

19、能够知道是否需要对一个集群执行升级终结操作。

  $dfsadmin -upgradeProgress status

20、使用 -upgrade 选项运行新的版本

  $bin/start-dfs.sh -upgrade

21、需要退回到老版本, 就必须停止集群并且部署老版本的 Hadoop,用回滚选项启动集群

  $bin/start-dfs.h -rollback

22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。

    *dfsadmin -setquota <N> <directory>…<directory>

把每个目录配额设为 N。这个命令会在每个目录上尝试,如果 N 不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。

    *dfsadmin -clrquota <directory>…<director>

为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。

    *fs -count -q <directory>…<directory>

使用 - q 选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告 none 和 inf。

23、创建一个 hadoop 档案文件

  $hadoop archive -archiveName NAME <src>* <dest>

    -archiveName NAME  要创建的档案的名字。

    src 文件系统的路径名,和通常含正则表达的一样。

    dest 保存档案文件的目标目录。

24、递归拷贝文件或目录

  $hadoop distcp <srcurl> <desturl>

    srcurl      源 Url

    desturl    目标 Url

 

25、运行 HDFS 文件系统检查工具 (fsck tools)
用法:hadoopfsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite] [-files[-blocks [-locations | -racks]]]

正文完
星哥说事-微信公众号
post-qrcode
 
星锅
版权声明:本站原创文章,由 星锅 2022-01-20发表,共计12569字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中