阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop集群完全分布式模式环境部署

123次阅读
没有评论

共计 15042 个字符,预计需要花费 38 分钟才能阅读完成。

Hadoop 简介

Hadoop 是 Apache 软件基金会旗下的一个开源分布式计算平台。以 Hadoop 分布式文件系统(HDFS,Hadoop Distributed Filesystem)和 MapReduce(Google MapReduce 的开源实现)为核心的 Hadoop 为用户提供了系统底层细节透明的分布式基础架构。

对于 Hadoop 的集群来讲,可以分成两大类角色:Master 和 Salve。一个 HDFS 集群是由一个 NameNode 和若干个 DataNode 组成的。其中 NameNode 作为主服务器,管理文件系统的命名空间和客户端对文件系统的访问操作;集群中的 DataNode 管理存储的数据。MapReduce 框架是由一个单独运行在主节点上的 JobTracker 和运行在每个集群从节点的 TaskTracker 共同组成的。主节点负责调度构成一个作业的所有任务,这些任务分布在不同的从节点上。主节点监控它们的执行情况,并且重新执行之前的失败任务;从节点仅负责由主节点指派的任务。当一个 Job 被提交时,JobTracker 接收到提交作业和配置信息之后,就会将配置信息等分发给从节点,同时调度任务并监控 TaskTracker 的执行。

从上面的介绍可以看出,HDFS 和 MapReduce 共同组成了 Hadoop 分布式系统体系结构的核心。HDFS 在集群上实现分布式文件系统,MapReduce 在集群上实现了分布式计算和任务处理。HDFS 在 MapReduce 任务处理过程中提供了文件操作和存储等支持,MapReduce 在 HDFS 的基础上实现了任务的分发、跟踪、执行等工作,并收集结果,二者相互作用,完成了 Hadoop 分布式集群的主要任务。

先决条件

1) 确保在你集群中的每个节点上都安装了所有必需软件:sun-JDK ssh Hadoop。
2) JavaTM1.5.x,必须安装,建议选择 Sun 公司发行的 Java 版本。
3) ssh 必须安装并且保证 sshd 一直运行,以便用 Hadoop 脚本管理远端 Hadoop 守护进程。

实验环境

操作平台:vmware
操作系统:CentOS 5.9
软件版本:hadoop-1.2.1,jdk-6u45
集群架构:包括 4 个节点:1 个 Master,3 个 Salve,节点之间局域网连接,可以相互 ping 通。节点 IP 地址分布如下:

主机名  IP  系统版本  Hadoop node  hadoop 进程名 
Master  192.168.137.100  CetOS 5.9  master  namenode,jobtracker 
Slave1  192.168.137.101  CetOS 5.9  slave  datanode,tasktracker 
Slave2  192.168.137.102  CetOS 5.9  slave  datanode,tasktracker 
Slave3  192.168.137.103  CetOS 5.9  slave  datanode,tasktracker 

四个节点上均是 CentOS5.9 系统,并且有一个相同的用户 hadoop。Master 机器主要配置 NameNode 和 JobTracker 的角色,负责总管分布式数据和分解任务的执行;3 个 Salve 机器配置 DataNode 和 TaskTracker 的角色,负责分布式数据存储以及任务的执行。

安装步骤

下载:jdk-6u45-linux-x64.bin , hadoop-1.2.1.tar.gz(主机名和网络配置略)
说明:在生产的 hadoop 集群环境中,由于服务器可能会有许多台,通过配置 DNS 映射机器名,相比配置 /etc/host 方法,可以避免在每个节点都配置各自的 host 文件,而且在新增节点时也不需要修改每个节点的 /etc/host 的主机名 -IP 映射文件。减少了配置步骤和时间,便于管理。

1、JDK 安装

#/bin/bash jdk-6u45-linux-x64.bin
#mv jdk1.6.0_45 /usr/local/
添加 java 环境变量:

#vim /etc/profile
# 最后添加
# set java environment
export JAVA_HOME=/usr/local/jdk1.6.0_45/
export JRE_HOME=/usr/local/jdk1.6.0_45/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
生效 java 变量:

#source /etc/profile
# java -version
java version “1.6.0_45”
Java(TM) SE Runtime Environment (build 1.6.0_45-b06)
Java HotSpot(TM) 64-Bit Server VM (build 20.45-b01, mixed mode)
在所有的机器上都建立相同的目录,也可以就建立相同的用户,最好是以该用户的 home 路径来做 hadoop 的安装路径。安装路径都是:/home/hadoop/hadoop-1.2.1

#useradd hadoop
#passwd hadoop

 

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

2、SSH 配置

在 Hadoop 启动以后,Namenode 是通过 SSH(Secure Shell)来启动和停止各个 datanode 上的各种守护进程的,这就须要在节点之间执行指令的时候是不须要输入密码的形式,故我们须要配置 SSH 运用无密码公钥认证的形式。以本文中的四台机器为例,现在 Master 是主节点,他须要连接 Slave1、Slave2 和 Slave3。须要确定每台机器上都安装了 ssh,并且 datanode 机器上 sshd 服务已经启动。
切换到 hadoop 用户(保证用户 hadoop 可以无需密码登录,因为我们后面安装的 hadoop 属主是 hadoop 用户。)
1) 在每台主机生成密钥对

#su – hadoop
#ssh-keygen -t rsa#cat ~/.ssh/id_rsa.pub
这个命令生成一个密钥对:id_rsa(私钥文件)和 id_rsa.pub(公钥文件)。默认被保存在~/.ssh/ 目录下。
2) 将 Master 公钥添加到远程主机 Slave1 的 authorized_keys 文件中
在 /home/hadoop/.ssh/ 下创建 authorized_keys

#vim authorized_keys
将刚才复制的公钥复制进去
权限设置为 600.(这点很重要,网没有设置 600 权限会导致登陆失败)
测试登陆:

$ ssh Slave1
The authenticity of host ‘slave2 (192.168.137.101)’ can’t be established.
RSA key fingerprint is d5:18:cb:5f:92:66:74:c7:30:30:bb:36:bf:4c:ed:e9.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added ‘slave2,192.168.137.101’ (RSA) to the list of known hosts.
Last login: Fri Aug 30 21:31:36 2013 from slave1
[hadoop@Slave1 ~]$
同样的方法,将 Master 的公钥复制到其他节点。

3、安装 Hadoop

1) 切换为 hadoop 用户,下载安装包后,直接解压安装即可:

#su – hadoop
#wget http://apache.stu.edu.tw/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
#tar -zxvf hadoop-1.2.1.tar.gz
我的安装目录为:
/home/hadoop/hadoop-1.2.1
为了方便,使用 hadoop 命令或者 start-all.sh 等命令,修改 Master 上 /etc/profile 新增以下内容:

export HADOOP_HOME=/home/hadoop/hadoop-1.2.1
export PATH=$PATH:$HADOOP_HOME/bin
修改完毕后,执行 source /etc/profile 来使其生效。
2) 配置 conf/hadoop-env.sh 文件
配置 conf/hadoop-env.sh 文件, 添加:

export Java_HOME=/usr/local/jdk1.6.0_45/
这里修改为你的 jdk 的安装位置。
测试 hadoop 安装:

/home/hadoop/hadoop-1.2.1/bin/hadoop jar hadoop-0.20.2-examples.jarwordcount conf/ /tmp/out
4、集群配置(所有节点相同)

1) 配置文件:conf/core-site.xml

<!–?xml version=”1.0″?–>
<!–?xml-stylesheet type=”text/xsl” href=”https://www.linuxidc.com/Linux/2014-03/configuration.xsl”?–>
 
<!– Put site-specific property overrides in this file. –>
 
fs.default.name
Master:9000
The name of the default file system. Either the literal string “local” or a host:port forDFS.
 
hadoop.tmp.dir
/home/hadoop/tmp
A base for other temporary directories.
fs.default.name 是 NameNode 的 URI。hdfs:// 主机名: 端口 /hadoop.tmp.dir:Hadoop 的默认临时路径,这个最好配置,如果在新增节点或者其他情况下莫名其妙的 DataNode 启动不了,就删除此文件中的 tmp 目录即可。不过如果删除了 NameNode 机器的此目录,那么就需要重新执行 NameNode 格式化的命令。

2) 配置文件:conf/mapred-site.xml

<!–?xml-stylesheet type=”text/xsl” href=”https://www.linuxidc.com/Linux/2014-03/configuration.xsl”?–>
 
<!– Put site-specific property overrides in this file. –>
 
mapred.job.tracker
Master:9001
The host and port that the MapReduce job tracker runs at. If “local”, then jobs are runin-process as a single map and reduce task.
 
mapred.local.dir
/home/hadoop/tmp
mapred.job.tracker 是 JobTracker 的主机(或者 IP)和端口。主机: 端口。

3) 配置文件:conf/hdfs-site.xml

<!–?xml version=”1.0″?–>
<!–?xml-stylesheet type=”text/xsl” href=”https://www.linuxidc.com/Linux/2014-03/configuration.xsl”?–>
 
<!– Put site-specific property overrides in this file. –>
 
dfs.name.dir
/home/hadoop/name1, /home/hadoop/name2
Determines where on the local filesystem the DFS name node should store the name table. If this is a comma-delimited list of directories then the name table is replicated in all of the directories, for redundancy.
 
dfs.data.dir
/home/hadoop/data1, /home/hadoop/data2
Determines where on the local filesystem an DFS data node should store its blocks. If this is a comma-delimited list of directories, then data will be stored in all named directories, typically on different devices. Directories that do not exist are ignored.
 
dfs.replication
3
Default block replication. The actual number of replications can be specified when the file is created. The default is used if replication is not specified in create time.
dfs.name.dir 是 NameNode 持久存储名字空间及事务日志的本地文件系统路径。当这个值是一个逗号分割的目录列表时,nametable 数据将会被复制到所有目录中做冗余备份。
dfs.data.dir 是 DataNode 存放块数据的本地文件系统路径,逗号分割的列表。当这个值是逗号分割的目录列表时,数据将被存储在所有目录下,通常分布在不同设备上。
dfs.replication 是数据需要备份的数量,默认是 3,如果此数大于集群的机器数会出错。
注意:此处的 name1、name2、data1、data2 目录不能预先创建,hadoop 格式化时会自动创建,如果预先创建反而会有问题。

4) 配置 masters 和 slaves 主从结点
配置 conf/masters 和 conf/slaves 来设置主从结点,注意最好使用主机名,并且保证机器之间通过主机名可以互相访问,每个主机名一行。

$vim masters:
输入:
Master
$vim slaves:
输入:
Slave1
Slave2
Slave3
配置结束,把配置好的 hadoop 文件夹拷贝到其他集群的机器中,并且保证上面的配置对于其他机器而言正确,例如:如果其他机器的 Java 安装路径不一样,要修改 conf/hadoop-env.sh

$scp -r /home/hadoop/hadoop-1.2.1 Slave1:/home/hadoop/
$scp -r /home/hadoop/hadoop-1.2.1 Slave2:/home/hadoop/
$scp -r /home/hadoop/hadoop-1.2.1 Slave3:/home/hadoop/

Hadoop 简介

Hadoop 是 Apache 软件基金会旗下的一个开源分布式计算平台。以 Hadoop 分布式文件系统(HDFS,Hadoop Distributed Filesystem)和 MapReduce(Google MapReduce 的开源实现)为核心的 Hadoop 为用户提供了系统底层细节透明的分布式基础架构。

对于 Hadoop 的集群来讲,可以分成两大类角色:Master 和 Salve。一个 HDFS 集群是由一个 NameNode 和若干个 DataNode 组成的。其中 NameNode 作为主服务器,管理文件系统的命名空间和客户端对文件系统的访问操作;集群中的 DataNode 管理存储的数据。MapReduce 框架是由一个单独运行在主节点上的 JobTracker 和运行在每个集群从节点的 TaskTracker 共同组成的。主节点负责调度构成一个作业的所有任务,这些任务分布在不同的从节点上。主节点监控它们的执行情况,并且重新执行之前的失败任务;从节点仅负责由主节点指派的任务。当一个 Job 被提交时,JobTracker 接收到提交作业和配置信息之后,就会将配置信息等分发给从节点,同时调度任务并监控 TaskTracker 的执行。

从上面的介绍可以看出,HDFS 和 MapReduce 共同组成了 Hadoop 分布式系统体系结构的核心。HDFS 在集群上实现分布式文件系统,MapReduce 在集群上实现了分布式计算和任务处理。HDFS 在 MapReduce 任务处理过程中提供了文件操作和存储等支持,MapReduce 在 HDFS 的基础上实现了任务的分发、跟踪、执行等工作,并收集结果,二者相互作用,完成了 Hadoop 分布式集群的主要任务。

先决条件

1) 确保在你集群中的每个节点上都安装了所有必需软件:sun-JDK ssh Hadoop。
2) JavaTM1.5.x,必须安装,建议选择 Sun 公司发行的 Java 版本。
3) ssh 必须安装并且保证 sshd 一直运行,以便用 Hadoop 脚本管理远端 Hadoop 守护进程。

实验环境

操作平台:vmware
操作系统:CentOS 5.9
软件版本:hadoop-1.2.1,jdk-6u45
集群架构:包括 4 个节点:1 个 Master,3 个 Salve,节点之间局域网连接,可以相互 ping 通。节点 IP 地址分布如下:

主机名  IP  系统版本  Hadoop node  hadoop 进程名 
Master  192.168.137.100  CetOS 5.9  master  namenode,jobtracker 
Slave1  192.168.137.101  CetOS 5.9  slave  datanode,tasktracker 
Slave2  192.168.137.102  CetOS 5.9  slave  datanode,tasktracker 
Slave3  192.168.137.103  CetOS 5.9  slave  datanode,tasktracker 

四个节点上均是 CentOS5.9 系统,并且有一个相同的用户 hadoop。Master 机器主要配置 NameNode 和 JobTracker 的角色,负责总管分布式数据和分解任务的执行;3 个 Salve 机器配置 DataNode 和 TaskTracker 的角色,负责分布式数据存储以及任务的执行。

安装步骤

下载:jdk-6u45-linux-x64.bin , hadoop-1.2.1.tar.gz(主机名和网络配置略)
说明:在生产的 hadoop 集群环境中,由于服务器可能会有许多台,通过配置 DNS 映射机器名,相比配置 /etc/host 方法,可以避免在每个节点都配置各自的 host 文件,而且在新增节点时也不需要修改每个节点的 /etc/host 的主机名 -IP 映射文件。减少了配置步骤和时间,便于管理。

1、JDK 安装

#/bin/bash jdk-6u45-linux-x64.bin
#mv jdk1.6.0_45 /usr/local/
添加 java 环境变量:

#vim /etc/profile
# 最后添加
# set java environment
export JAVA_HOME=/usr/local/jdk1.6.0_45/
export JRE_HOME=/usr/local/jdk1.6.0_45/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
生效 java 变量:

#source /etc/profile
# java -version
java version “1.6.0_45”
Java(TM) SE Runtime Environment (build 1.6.0_45-b06)
Java HotSpot(TM) 64-Bit Server VM (build 20.45-b01, mixed mode)
在所有的机器上都建立相同的目录,也可以就建立相同的用户,最好是以该用户的 home 路径来做 hadoop 的安装路径。安装路径都是:/home/hadoop/hadoop-1.2.1

#useradd hadoop
#passwd hadoop

 

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

5、Hadoop 启动

1) 格式化一个新的分布式文件系统

$ cd /home/hadoop/hadoop-1.2.1 $ bin/hadoop namenode -format
成功情况下系统输出:
Warning: $HADOOP_HOME is deprecated.
 
13/09/10 16:39:31 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = Master/192.168.137.100
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 1.2.1
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1503152; compiled by ‘mattf’ on Mon Jul 22 15:23:09 PDT 2013
STARTUP_MSG: Java = 1.6.0_45
************************************************************/
13/09/10 16:39:32 INFO util.GSet: Computing capacity for map BlocksMap
13/09/10 16:39:32 INFO util.GSet: VM type = 64-bit
13/09/10 16:39:32 INFO util.GSet: 2.0% max memory = 1013645312
13/09/10 16:39:32 INFO util.GSet: capacity = 2^21 = 2097152 entries
13/09/10 16:39:32 INFO util.GSet: recommended=2097152, actual=2097152
13/09/10 16:39:32 INFO namenode.FSNamesystem: fsOwner=hadoop
13/09/10 16:39:32 INFO namenode.FSNamesystem: supergroup=supergroup
13/09/10 16:39:32 INFO namenode.FSNamesystem: isPermissionEnabled=true
13/09/10 16:39:32 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100
13/09/10 16:39:32 INFO namenode.FSNamesystem: isAccessTokenEnabled=falseaccessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)
13/09/10 16:39:32 INFO namenode.FSEditLog: dfs.namenode.edits.toleration.length = 0
13/09/10 16:39:32 INFO namenode.NameNode: Caching file names occuring more than 10 times
13/09/10 16:39:33 INFO common.Storage: Image file /home/hadoop/name1/current/fsimage of size 112 bytes saved in 0 seconds.
13/09/10 16:39:33 INFO namenode.FSEditLog: closing edit log: position=4, editlog=/home/hadoop/name1/current/edits
13/09/10 16:39:33 INFO namenode.FSEditLog: close success: truncate to 4, editlog=/home/hadoop/name1/current/edits
13/09/10 16:39:33 INFO common.Storage: Storage directory /home/hadoop/name1 has been successfully formatted.
13/09/10 16:39:33 INFO common.Storage: Image file /home/hadoop/name2/current/fsimage of size 112 bytes saved in 0 seconds.
13/09/10 16:39:33 INFO namenode.FSEditLog: closing edit log: position=4, editlog= /home/hadoop/name2/current/edits
13/09/10 16:39:33 INFO namenode.FSEditLog: close success: truncate to 4, editlog= /home/hadoop/name2/current/edits
13/09/10 16:39:33 INFO common.Storage: Storage directory /home/hadoop/name2 has been successfully formatted.
13/09/10 16:39:33 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at Master/192.168.137.100
************************************************************/
查看输出保证分布式文件系统格式化成功执行完后可以到 master 机器上看到 /home/hadoop//name1 和 /home/hadoop/name2 两个目录。在主节点 master 上面启动 hadoop,主节点会启动所有从节点的 hadoop。
2) 启动所有节点
启动方式 1:

$ bin/start-all.sh
(同时启动 HDFS 和 Map/Reduce)系统输出:
$ bin/start-all.sh
Warning: $HADOOP_HOME is deprecated.
 
starting namenode, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-hadoop-namenode-Master.out
Slave3: starting datanode, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-hadoop-datanode-Slave3.out
Slave2: starting datanode, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-hadoop-datanode-Slave2.out
Slave1: starting datanode, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-hadoop-datanode-Slave1.out
The authenticity of host ‘master (192.168.137.100)’ can’t be established.
RSA key fingerprint is d5:18:cb:5f:92:66:74:c7:30:30:bb:36:bf:4c:ed:e9.
Are you sure you want to continue connecting (yes/no)? yes
Master: Warning: Permanently added ‘master,192.168.137.100’ (RSA) to the list of known hosts.
hadoop@master’s password:
Master: starting secondarynamenode, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-hadoop-secondarynamenode-Master.out
starting jobtracker, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-hadoop-jobtracker-Master.out
Slave2: starting tasktracker, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-hadoop-tasktracker-Slave2.out
Slave3: starting tasktracker, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-hadoop-tasktracker-Slave3.out
Slave1: starting tasktracker, logging to /home/hadoop/hadoop-1.2.1/libexec/../logs/hadoop-hadoop-tasktracker-Slave1.out
执行完后可以到 master(Master)和 slave(Slave1,Slave2,Slave3)机器上看到 /home/hadoop/hadoopfs/data1 和 /home/hadoop/data2 两个目录。
启动方式 2:

启动 Hadoop 集群需要启动 HDFS 集群和 Map/Reduce 集群。
在分配的 NameNode 上,运行下面的命令启动 HDFS:
$ bin/start-dfs.sh

(单独启动 HDFS 集群)
bin/start-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 DataNode 守护进程。
在分配的 JobTracker 上,运行下面的命令启动 Map/Reduce:$bin/start-mapred.sh
(单独启动 Map/Reduce)
bin/start-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 TaskTracker 守护进程。

3) 关闭所有节点

从主节点 master 关闭 hadoop,主节点会关闭所有从节点的 hadoop。

$ bin/stop-all.sh
Hadoop 守护进程的日志写入到 ${HADOOP_LOG_DIR} 目录 (默认是 ${HADOOP_HOME}/logs).
${HADOOP_HOME}就是安装路径.

6、测试

1) 用 jps 检验各后台进程是否成功启动

– 在 master 节点查看后台进程
$ /usr/local/jdk1.6.0_45/bin/jps
3180 Jps
2419 SecondaryNameNode
2236 NameNode
2499 JobTracker
– 在 slave 节点查看后台进程
$ /usr/local/jdk1.6.0_45/bin/jps
2631 Jps
2277 DataNode
2365 TaskTracker
2) 通过用浏览器和 http 访问 NameNode 和 JobTracker 的网络接口:

Hadoop 集群完全分布式模式环境部署

NameNode – http://192.168.137.100:50070/dfshealth.jsp

3) 使用 netstat –nat 查看端口 9000 和 9001 是否正在使用。

HDFS 操作
运行 bin/ 目录的 Hadoop 命令,可以查看 Haoop 所有支持的操作及其用法,这里以几个简单的操作为例。
建立目录

$bin/hadoop dfs -mkdir testdir
Warning: $HADOOP_HOME is deprecated.
 
13/09/10 17:29:05 WARN fs.FileSystem: “Master:9000″ is a deprecated filesystem name. Use”hdfs://Master:9000/” instead.
在 HDFS 中建立一个名为 testdir 的目录
复制文件

$ bin/hadoop dfs -put /home/hadoop/hadoop-1.2.1.tar.gz testfile.zip
Warning: $HADOOP_HOME is deprecated.
 
13/09/10 17:30:32 WARN fs.FileSystem: “Master:9000″ is a deprecated filesystem name. Use”hdfs://Master:9000/” instead.
13/09/10 17:30:33 WARN fs.FileSystem: “Master:9000″ is a deprecated filesystem name. Use”hdfs://Master:9000/” instead
把本地文件 /home/hadoop/hadoop-1.2.1.tar.gz 拷贝到 HDFS 的根目录 /user/hadoop/ 下,文件名为 testfile.zip
查看现有文件

$ bin/hadoop dfs -ls
Warning: $HADOOP_HOME is deprecated.
 
13/09/10 17:32:00 WARN fs.FileSystem: “Master:9000″ is a deprecated filesystem name. Use”hdfs://Master:9000/” instead.
Found 2 items
drwxr-xr-x – hadoop supergroup 0 2013-09-10 17:29 /user/hadoop/testdir
-rw-r–r– 3 hadoop supergroup 63851630 2013-09-10 17:30 /user/hadoop/testfile.zip

 

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

正文完
星哥说事-微信公众号
post-qrcode
 
星锅
版权声明:本站原创文章,由 星锅 2022-01-20发表,共计15042字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中