阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Ubuntu和CentOS中分布式配置Hadoop-2.2.0

398次阅读
没有评论

共计 12891 个字符,预计需要花费 33 分钟才能阅读完成。

一、准备工作

首先在每台 Linux 电脑上面安装好 JDK6 或其以上版本,并设置好 JAVA_HOME 等,测试一下 java、javac、jps 等命令是否可以在终端使用,具体可参考《Linux 中单机配置 Hadoop》http://www.linuxidc.com/Linux/2014-01/95802.htm 中的配置过程

二、设置静态 IP

注:如果是在虚拟中建立分布式环境,这一步就可以跳过了。

(1)CentOS 静态 IP 地址设置:

  1. $sudo vim /etc/sysconfig/network-scripts/ifcfg-eth0

在里面添加下面语句:

  1. IPADDR=192.168.1.108
  2. NETMASK=255.255.255.0
  3. NETWORK=192.168.1.1

其中,IPADDR 为你想要设置的静态 IP 地址。设置完成后,输入如下命令重启网络服务。

  1. $ sudo service network restart

如果命令输入后结果一直都是 OK,则证明重启正常。输入如下命令测试一下,如果结果为你之前设置的 IP 地址。证明设置正确。

  1. $ ifconfig

(2)、Ubuntu 静态 IP 地址设置步骤如下:

  1. $ sudo vim /etc/network/interfaces

在里面添加:

  1. auto eth0
  2. iface eth0 inet static
  3. address 192.168.1.108
  4. netmask 255.255.255.0
  5. gateway 192.168.1.1

同样需要让 IP 地址生效,输入

  1. $ sudo /etc/init.d/networking restart

再输入 ifconfig 来检验 IP 设置是否生效。

 

三、设置 hostname

(1)Ubuntu 设置 hostname:

  1. $ sudo vim /etc/hostname

在里面添加自己需要取的 hostname,假设设置为 master。

 

查看设置是否生效,运行下面命令:

  1. $ hostname

如果输出 master,说明配置生效。

 

(2)CentOS 设置 hostname:

  1. $ sudo vim /etc/sysconfig/network

将里面的 HOSTNAME 修改为你想要的 hostname,假设设置为 master

 

HOSTNAME=master

查看设置是否生效,运行下面命令

  1. $ hostname

如果输出 master,说明配置生效。

 

四、设置 /etc/hosts

这一步是为了让各机器都能使用 hostname 通信,而不是用 IP 地址。我安装了三台 CentOS 虚拟机。IP 地址分别为 192.168.1.108、192.168.1.110、192.168.1.111,对应的 hostname 分别设置为 master、node、slave。在各台机器上分别运行如下命令(ubuntu 和 centos 一样):

  1. $ sudo vim /etc/hosts

在里面添加以下语句

  1. 192.168.1.108 master
  2. 192.168.1.110 node
  3. 192.168.1.111 slave

 

注,如果发现 hosts 文件中有 127.0.1.1 或者除了 127.0.0.1 之外的其他内容,将他们删除,否则之后的 hadoop 操作有可能会出现错误(比如:Hadoop Datanodes cannot find NameNode)。

 

在每个机器上使用 ping 命令看能否 ping 通其他机器。如果能 ping 通,则证明配置正确。

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

五、配置 SSH 无密码登录

可参考《Ubuntu 和 CentOS 配置 SSH 无密码登录》http://www.linuxidc.com/Linux/2014-01/95800.htm,做到 hostname 为 master 的机器能 ssh 无密码登录其他机器。

六、下载 Hadoop-2.2.0

  1. $ cd /home/aaron
  2. $ wget \
  3. http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.2.0/hadoop-2.2.0.tar.gz
  4. $ tar -xf hadoop-2.2.0.tar.gz
  5. $ cd hadoop-2.2.0

七、配置 Hadoop 的环境变量

  1. $ sudo vim /etc/profile

在 /etc/profile 文件的末尾加上以下配置

  1. export HADOOP_DEV_HOME=/home/aaron/hadoop-2.2.0
  2. export PATH=$PATH:$HADOOP_DEV_HOME/bin
  3. export PATH=$PATH:$HADOOP_DEV_HOME/sbin
  4. export HADOOP_MAPARED_HOME=${HADOOP_DEV_HOME}
  5. export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME}
  6. export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME}
  7. export YARN_HOME=${HADOOP_DEV_HOME}
  8. export HADOOP_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop

为了让刚刚的设置生效,运行下面的命令

  1. $ sudo source /etc/profile

在终端输入 hadoop 命令查看 Hadoop 的环境变量是否生效:

  1. $ hadoop
  2. Usage: hadoop [–config confdir] COMMAND
  3. where COMMAND is one of:
  4. fs run a generic filesystem user client
  5. version print the version
  6. jar <jar> run a jar file
  7. checknative [-a|-h] check native hadoop and compression libraries
  8. availability
  9. distcp <srcurl> <desturl> copy file or directories recursively
  10. archive -archiveName NAME -p <parent path> <src>* <dest> create
  11. a hadoop archive
  12. classpath prints the class path needed to get the
  13. Hadoop jar and the required libraries
  14. daemonlog get/set the log level for each daemon
  15. or
  16. CLASSNAME run the class named CLASSNAME
  17. Most commands print help when invoked w/o parameters.

如果显示上面的信息,说明环境变量生效了,如果显示不了,重启一下电脑试。

 

八、修改 Hadoop 的配置文件

修改 Hadoop 的 hadoop-env.sh 配置文件(在 hadoop-2.2.0/etc/hadoop/ 里面),设置 jdk 所在的路径:
在里面找到 JAVA_HOME,并将它的值设置为你电脑 jdk 所在的绝对路径

  1. export JAVA_HOME=/usr/lib/jvm/java/jdk1.6.0_37

依次修改 core-site.xml、yarn-site.xml、mapred-site.xml 和 hdfs-site.xml 配置文件

 

1)修改 core-site.xml

  1. <property>
  2. <name>fs.default.name</name>
  3. <value>hdfs://master:8020</value>
  4. <final>true</final>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/home/aaron/tmp/hadoop2.0</value>
  9. </property>

2)修改 yarn-site.xml

  1. <property>
  2. <name>yarn.resourcemanager.address</name>
  3. <value>master:8032</value>
  4. </property>
  5. <property>
  6. <name>yarn.resourcemanager.scheduler.address</name>
  7. <value>master:8030</value>
  8. </property>
  9. <property>
  10. <name>yarn.resourcemanager.resource-tracker.address</name>
  11. <value>master:8031</value>
  12. </property>
  13. <property>
  14. <name>yarn.resourcemanager.admin.address</name>
  15. <value>master:8033</value>
  16. </property>
  17. <property>
  18. <name>yarn.resourcemanager.webapp.address</name>
  19. <value>master:8088</value>
  20. </property>
  21. <property>
  22. <name>yarn.nodemanager.aux-services</name>
  23. <value>mapreduce_shuffle</value>
  24. </property>
  25. <property>
  26. <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  27. <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  28. </property>

注意:yarn.nodemanager.aux-services 的值是“mapreduce_shuffle”(在 hadoop-2.1-beta 中的值是“mapreduce.shuffle”)

3)修改 mapred-site.xml

  1. <property>
  2. <name>mapreduce.framework.name</name>
  3. <value>yarn</value>
  4. </property>
  5. <property>
  6. <name>mapred.system.dir</name>
  7. <value>file:/home/aaron/hadoop/mapred/system</value>
  8. <final>true</final>
  9. </property>
  10. <property>
  11. <name>mapred.local.dir</name>
  12. <value>file:/home/aaron/hadoop/mapred/local</value>
  13. <final>true</final>
  14. </property>

4)修改 hdfs-site.xml

  1. <property>
  2. <name>dfs.namenode.name.dir</name>
  3. <value>file:/home/aaron/hadoop/dfs/name</value>
  4. <final>true</final>
  5. </property>
  6. <property>
  7. <name>dfs.datanode.data.dir</name>
  8. <value>file:/home/aaron/hadoop/dfs/data</value>
  9. <final>true</final>
  10. </property>
  11. <property>
  12. <name>dfs.replication</name>
  13. <value>1</value>
  14. </property>
  15. <property>
  16. <name>dfs.permissions</name>
  17. <value>false</value>
  18. </property>

配置好 Hadoop 的相关东西之后,使用如下命令将 hadoop-2.2.0 整个文件夹分别拷贝到 node 和 slave 主机上去(注:设置都不需要改!)

  1. $ scp -r ~/hadoop-2.2.0 aaron@node:~/
  2. $ scp -r ~/hadoop-2.2.0 aaron@slave:~/

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

一、准备工作

首先在每台 Linux 电脑上面安装好 JDK6 或其以上版本,并设置好 JAVA_HOME 等,测试一下 java、javac、jps 等命令是否可以在终端使用,具体可参考《Linux 中单机配置 Hadoop》http://www.linuxidc.com/Linux/2014-01/95802.htm 中的配置过程

二、设置静态 IP

注:如果是在虚拟中建立分布式环境,这一步就可以跳过了。

(1)CentOS 静态 IP 地址设置:

  1. $sudo vim /etc/sysconfig/network-scripts/ifcfg-eth0

在里面添加下面语句:

  1. IPADDR=192.168.1.108
  2. NETMASK=255.255.255.0
  3. NETWORK=192.168.1.1

其中,IPADDR 为你想要设置的静态 IP 地址。设置完成后,输入如下命令重启网络服务。

  1. $ sudo service network restart

如果命令输入后结果一直都是 OK,则证明重启正常。输入如下命令测试一下,如果结果为你之前设置的 IP 地址。证明设置正确。

  1. $ ifconfig

(2)、Ubuntu 静态 IP 地址设置步骤如下:

  1. $ sudo vim /etc/network/interfaces

在里面添加:

  1. auto eth0
  2. iface eth0 inet static
  3. address 192.168.1.108
  4. netmask 255.255.255.0
  5. gateway 192.168.1.1

同样需要让 IP 地址生效,输入

  1. $ sudo /etc/init.d/networking restart

再输入 ifconfig 来检验 IP 设置是否生效。

 

三、设置 hostname

(1)Ubuntu 设置 hostname:

  1. $ sudo vim /etc/hostname

在里面添加自己需要取的 hostname,假设设置为 master。

 

查看设置是否生效,运行下面命令:

  1. $ hostname

如果输出 master,说明配置生效。

 

(2)CentOS 设置 hostname:

  1. $ sudo vim /etc/sysconfig/network

将里面的 HOSTNAME 修改为你想要的 hostname,假设设置为 master

 

HOSTNAME=master

查看设置是否生效,运行下面命令

  1. $ hostname

如果输出 master,说明配置生效。

 

四、设置 /etc/hosts

这一步是为了让各机器都能使用 hostname 通信,而不是用 IP 地址。我安装了三台 CentOS 虚拟机。IP 地址分别为 192.168.1.108、192.168.1.110、192.168.1.111,对应的 hostname 分别设置为 master、node、slave。在各台机器上分别运行如下命令(ubuntu 和 centos 一样):

  1. $ sudo vim /etc/hosts

在里面添加以下语句

  1. 192.168.1.108 master
  2. 192.168.1.110 node
  3. 192.168.1.111 slave

 

注,如果发现 hosts 文件中有 127.0.1.1 或者除了 127.0.0.1 之外的其他内容,将他们删除,否则之后的 hadoop 操作有可能会出现错误(比如:Hadoop Datanodes cannot find NameNode)。

 

在每个机器上使用 ping 命令看能否 ping 通其他机器。如果能 ping 通,则证明配置正确。

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

九、关掉 master、node 和 slave 的防火墙

为了防止在 Hadoop 启动时遇到 java.net.NoRouteToHostException 异常,请关掉防火墙。

(1)对于 Ubuntu 关闭防火墙

  1. $ sudo ufw disable

如果你要防火墙可以运行:

  1. $ sudo apt-get remove iptables

(2)对于 CentOS 关闭防火墙
查看 iptables 状态:

  1. $ sudo service iptables status

iptables 开机自动启动:

  1. 开启:$ sudo chkconfig iptables on
  2. 关闭:$ sudo chkconfig iptables off

iptables 关闭服务:

  1. 开启:$ sudo service iptables start
  2. 关闭:service iptables stop

十、运行 hadoop-2.2.0
首先在 master 上面格式化一下 HDFS, 如下命令

  1. $ hdfs namenode -format

在 master 中启动 namenode 和 resourcemanager

  1. $ hadoop-daemon.sh start namenode
  2. $ yarn-daemon.sh start resourcemanager

在 node 和 slave 中启动 datanode 和 nodemanager

  1. $ hadoop-daemon.sh start datanode
  2. $ yarn-daemon.sh start nodemanager

检查 Hadoop 集群是否安装好了,在 master 上面运行 jps,如果有 NameNode、ResourceManager 二个进程,说明 master 安装好了。

 

1)查看 jps

  1. $ jps
  2. 2016 NameNode
  3. 2602 ResourceManager

在 node(slave)上面运行 jps,如果有 DataNode、NodeManager 二个进程,说明 node(node1)安装好了。

  1. $ jps
  2. 7889 DataNode
  3. 7979 NodeManager

2)检查以下两个页面是否能打开

 

http://master:50070/dfshealth.jsp
http://master:8088/cluster/nodes

3)运行以下 hdfs 命令

  1. hadoop fs -mkdir /input
  2. hadoop fs -put NOTICE.txt /test/input/
  3. hadoop fs -put README.txt /test/input/
  4. hadoop fs -ls /input
  5. hadoop fs -cat /input/NOTICE.txt

4)运行 mapreduce job

  1. hadoop jar hadoop-2.2.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar \
  2. grep /input /output ‘code’

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计12891字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19350
评论数
4
阅读量
7956464
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
飞牛NAS玩转Frpc并且配置,随时随地直连你的私有云

飞牛NAS玩转Frpc并且配置,随时随地直连你的私有云

飞牛 NAS 玩转 Frpc 并且配置,随时随地直连你的私有云 大家好,我是星哥,最近在玩飞牛 NAS。 在数...
星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定!

星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定!

星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定! 前言 作为 NAS 玩家,你是否总被这些...
免费领取huggingface的2核16G云服务器,超简单教程

免费领取huggingface的2核16G云服务器,超简单教程

免费领取 huggingface 的 2 核 16G 云服务器,超简单教程 前言 HuggingFace.co...
星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛 NAS-5:飞牛 NAS 中的 Docker 功能介绍 大家好,我是星哥,今天给大家带来如何在...
安装Black群晖DSM7.2系统安装教程(在Vmware虚拟机中、实体机均可)!

安装Black群晖DSM7.2系统安装教程(在Vmware虚拟机中、实体机均可)!

安装 Black 群晖 DSM7.2 系统安装教程(在 Vmware 虚拟机中、实体机均可)! 前言 大家好,...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

  300 元就能买到的 ” 小钢炮 ”?惠普 7L 四盘位小主机解析 最近...
星哥带你玩飞牛NAS-13:自动追番、订阅下载 + 刮削,动漫党彻底解放双手!

星哥带你玩飞牛NAS-13:自动追番、订阅下载 + 刮削,动漫党彻底解放双手!

星哥带你玩飞牛 NAS-13:自动追番、订阅下载 + 刮削,动漫党彻底解放双手! 作为动漫爱好者,你是否还在为...
150元打造低成本NAS小钢炮,捡一块3865U工控板

150元打造低成本NAS小钢炮,捡一块3865U工控板

150 元打造低成本 NAS 小钢炮,捡一块 3865U 工控板 一块二手的熊猫 B3 工控板 3865U,搭...
星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛 NAS-12:开源笔记的进化之路,效率玩家的新选择 前言 如何高效管理知识与笔记,已经成为技术...
安装并使用谷歌AI编程工具Antigravity(亲测有效)

安装并使用谷歌AI编程工具Antigravity(亲测有效)

  安装并使用谷歌 AI 编程工具 Antigravity(亲测有效) 引言 Antigravity...