阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

CentOS 6.4安装Hadoop-2.5.1完全分布式集群

436次阅读
没有评论

共计 7934 个字符,预计需要花费 20 分钟才能阅读完成。

环境介绍

在两台装有 CentOS 6.4(32 位)的服务器上安装 Hadoop-2.5.1 分布式集群(2 台机器,主要试验用)。

1.修改主机名和 /etc/hosts 文件

1)修改主机名(非必要)

vi /etc/sysconfig/network
HOSTNAME=XXX

重启后生效。

2)/etc/hosts 是 ip 地址和其对应主机名文件,使机器知道 ip 和主机名对应关系,格式如下:

#IPAddress HostName
192.168.1.67 MasterServer
192.168.1.241 SlaveServer

2.配置免密码登陆 SSH

1)生成密钥:

ssh-keygen -t dsa -P ” -f ~/.ssh/id_dsa 

以上是两个单引号。

2)将 id_dsa.pub(公钥)追加到授权的 key 中:

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

3)将认证文件复制到其它节点上:

scp ~/.ssh/authorized_keys hadooper@192.168.1.241:~/.ssh/ 

第一次要确认连接,输入 yes 即可。

但我的仍要求输入密码,原因是.ssh 和 authorized_keys 权限不对,具体见:http://www.linuxidc.com/Linux/2014-10/107762.htm

3.各节点上安装 jdk
1)选择的版本是 jdk-6u27-linux-i586.bin,下载地址:http://pan.baidu.com/s/1dDGi5QL
2)上传到 hadooper 用户目录下,添加执行权限

chmod 777 jdk-6u27-linux-i586.bin 

3)安装

./jdk-6u27-linux-i586.bin 

4)配置环境变量:vi /etc/profile 加入以下三行

#Java_HOME
export JAVA_HOME=/usr/lib/jvm/jdk1.6/jdk1.6.0_27
export PATH=$JAVA_HOME/bin:$PATH

5)执行 source /etc/profile 使环境变量的配置生效
6)执行 java –version 查看 jdk 版本,验证是否成功。

4. Hadoop 安装

每台节点都要安装 hadoop。上传 hadoop-2.5.1.tar.gz 到用户 hadooper 目录下。

1)解压

tar -zvxf hadoop-2.5.1.tar.gz

2)添加环境变量:vi  /etc/profile,尾部添加如下

export HADOOP_HOME=/home/hadooper/hadoop/hadoop-2.5.1
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export CLASSPATH=.:$JAVA_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

设置立即生效:

source /etc/profile

3)修改 Hadoop 配置文件

(1)core-site.xml

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://MasterServer:9000</value>
</property>

(2)hdfs-site.xml

 <property> 
    <name>dfs.replication</name> 
    <value>3</value> 
 </property>

(3)mapred-site.xml

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
 </property>
 <property>
    <name>mapreduce.jobhistory.address</name>
    <value>MasterServer:10020</value>
 </property>
 <property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>MasterServer:19888</value>
 </property><span style=”font-family: Arial, Helvetica, sans-serif;”>        </span>

jobhistory 是 Hadoop 自带了一个历史服务器,记录 Mapreduce 历史作业。默认情况下,jobhistory 没有启动,可用以下命令启动:

sbin/mr-jobhistory-daemon.sh start historyserver

(4)yarn-site.xml

 <property> 
    <name>yarn.nodemanager.aux-services</name> 
    <value>mapreduce_shuffle</value> 
 </property> 
 <property> 
    <name>yarn.resourcemanager.address</name> 
    <value>MasterServer:8032</value> 
 </property> 
 <property> 
    <name>yarn.resourcemanager.scheduler.address</name> 
    <value>MasterServer:8030</value> 
 </property> 
 <property> 
    <name>yarn.resourcemanager.resource-tracker.address</name> 
    <value>MasterServer:8031</value> 
 </property> 
 <property> 
    <name>yarn.resourcemanager.admin.address</name> 
    <value>MasterServer:8033</value> 
 </property> 
 <property> 
    <name>yarn.resourcemanager.webapp.address</name> 
    <value>MasterServer:8088</value> 
 </property>

(5)slaves

SlaveServer 

(6)分别在 hadoop-env.sh 和 yarn-env.sh 中添加 JAVA_HOME

export JAVA_HOME=/usr/lib/jvm/jdk1.6/jdk1.6.0_27 

————————————– 分割线 ————————————–

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

————————————– 分割线 ————————————–

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-10/107763p2.htm

5. 运行 Hadoop

1)格式化

hdfs namenode –format

2)启动 Hadoop

start-dfs.sh
start-yarn.sh

也可以用一条命令:

start-all.sh 

3)停止 Hadoop

stop-all.sh 

4)jps 查看进程

7692 ResourceManager
8428 JobHistoryServer
7348 NameNode
14874 Jps
7539 SecondaryNameNode

5)通过浏览器查看集群运行状态

(1)http://192.168.1.67:50070 

CentOS 6.4 安装 Hadoop-2.5.1 完全分布式集群

(2)http://192.168.1.67:8088/

CentOS 6.4 安装 Hadoop-2.5.1 完全分布式集群

(3)http://192.168.1.67:19888

CentOS 6.4 安装 Hadoop-2.5.1 完全分布式集群

6. 运行 Hadoop 自带的 wordcount 示例

1)建立输入文件:

 

echo “My first hadoop example. Hello Hadoop in input. ” > input 

2)建立目录

hadoop fs -mkdir /user/hadooper 

3)上传文件

hadoop fs -put input /user/hadooper 

4)执行 wordcount 程序

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.1.jar wordcount /user/hadooper/input /user/hadooper/output 

5)查看结果

hadoop fs -cat /user/hadooper/output/part-r-00000

Hadoop 1
My 1
example.Hello 1
first 1
hadoop 1
in 1
input. 1

更多 Hadoop 相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

环境介绍

在两台装有 CentOS 6.4(32 位)的服务器上安装 Hadoop-2.5.1 分布式集群(2 台机器,主要试验用)。

1.修改主机名和 /etc/hosts 文件

1)修改主机名(非必要)

vi /etc/sysconfig/network
HOSTNAME=XXX

重启后生效。

2)/etc/hosts 是 ip 地址和其对应主机名文件,使机器知道 ip 和主机名对应关系,格式如下:

#IPAddress HostName
192.168.1.67 MasterServer
192.168.1.241 SlaveServer

2.配置免密码登陆 SSH

1)生成密钥:

ssh-keygen -t dsa -P ” -f ~/.ssh/id_dsa 

以上是两个单引号。

2)将 id_dsa.pub(公钥)追加到授权的 key 中:

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

3)将认证文件复制到其它节点上:

scp ~/.ssh/authorized_keys hadooper@192.168.1.241:~/.ssh/ 

第一次要确认连接,输入 yes 即可。

但我的仍要求输入密码,原因是.ssh 和 authorized_keys 权限不对,具体见:http://www.linuxidc.com/Linux/2014-10/107762.htm

3.各节点上安装 jdk
1)选择的版本是 jdk-6u27-linux-i586.bin,下载地址:http://pan.baidu.com/s/1dDGi5QL
2)上传到 hadooper 用户目录下,添加执行权限

chmod 777 jdk-6u27-linux-i586.bin 

3)安装

./jdk-6u27-linux-i586.bin 

4)配置环境变量:vi /etc/profile 加入以下三行

#Java_HOME
export JAVA_HOME=/usr/lib/jvm/jdk1.6/jdk1.6.0_27
export PATH=$JAVA_HOME/bin:$PATH

5)执行 source /etc/profile 使环境变量的配置生效
6)执行 java –version 查看 jdk 版本,验证是否成功。

4. Hadoop 安装

每台节点都要安装 hadoop。上传 hadoop-2.5.1.tar.gz 到用户 hadooper 目录下。

1)解压

tar -zvxf hadoop-2.5.1.tar.gz

2)添加环境变量:vi  /etc/profile,尾部添加如下

export HADOOP_HOME=/home/hadooper/hadoop/hadoop-2.5.1
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export CLASSPATH=.:$JAVA_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

设置立即生效:

source /etc/profile

3)修改 Hadoop 配置文件

(1)core-site.xml

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://MasterServer:9000</value>
</property>

(2)hdfs-site.xml

 <property> 
    <name>dfs.replication</name> 
    <value>3</value> 
 </property>

(3)mapred-site.xml

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
 </property>
 <property>
    <name>mapreduce.jobhistory.address</name>
    <value>MasterServer:10020</value>
 </property>
 <property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>MasterServer:19888</value>
 </property><span style=”font-family: Arial, Helvetica, sans-serif;”>        </span>

jobhistory 是 Hadoop 自带了一个历史服务器,记录 Mapreduce 历史作业。默认情况下,jobhistory 没有启动,可用以下命令启动:

sbin/mr-jobhistory-daemon.sh start historyserver

(4)yarn-site.xml

 <property> 
    <name>yarn.nodemanager.aux-services</name> 
    <value>mapreduce_shuffle</value> 
 </property> 
 <property> 
    <name>yarn.resourcemanager.address</name> 
    <value>MasterServer:8032</value> 
 </property> 
 <property> 
    <name>yarn.resourcemanager.scheduler.address</name> 
    <value>MasterServer:8030</value> 
 </property> 
 <property> 
    <name>yarn.resourcemanager.resource-tracker.address</name> 
    <value>MasterServer:8031</value> 
 </property> 
 <property> 
    <name>yarn.resourcemanager.admin.address</name> 
    <value>MasterServer:8033</value> 
 </property> 
 <property> 
    <name>yarn.resourcemanager.webapp.address</name> 
    <value>MasterServer:8088</value> 
 </property>

(5)slaves

SlaveServer 

(6)分别在 hadoop-env.sh 和 yarn-env.sh 中添加 JAVA_HOME

export JAVA_HOME=/usr/lib/jvm/jdk1.6/jdk1.6.0_27 

————————————– 分割线 ————————————–

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

————————————– 分割线 ————————————–

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-10/107763p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计7934字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7977569
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍

浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍

浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍 前言 在 AI 自动化快速发展的当下,浏览器早已不再只是...
星哥带你玩飞牛NAS硬件03:五盘位+N5105+双网口的成品NAS值得入手吗

星哥带你玩飞牛NAS硬件03:五盘位+N5105+双网口的成品NAS值得入手吗

星哥带你玩飞牛 NAS 硬件 03:五盘位 +N5105+ 双网口的成品 NAS 值得入手吗 前言 大家好,我...
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS硬件02:某鱼6张左右就可拿下5盘位的飞牛圣体NAS

星哥带你玩飞牛NAS硬件02:某鱼6张左右就可拿下5盘位的飞牛圣体NAS

星哥带你玩飞牛 NAS 硬件 02:某鱼 6 张左右就可拿下 5 盘位的飞牛圣体 NAS 前言 大家好,我是星...
自己手撸一个AI智能体—跟创业大佬对话

自己手撸一个AI智能体—跟创业大佬对话

自己手撸一个 AI 智能体 — 跟创业大佬对话 前言 智能体(Agent)已经成为创业者和技术人绕...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
星哥带你玩飞牛NAS硬件02:某鱼6张左右就可拿下5盘位的飞牛圣体NAS

星哥带你玩飞牛NAS硬件02:某鱼6张左右就可拿下5盘位的飞牛圣体NAS

星哥带你玩飞牛 NAS 硬件 02:某鱼 6 张左右就可拿下 5 盘位的飞牛圣体 NAS 前言 大家好,我是星...
星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定!

星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定!

星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定! 前言 作为 NAS 玩家,你是否总被这些...
告别Notion焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁”

告别Notion焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁”

  告别 Notion 焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁” 引言 在数字笔记工...
300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

  300 元就能买到的 ” 小钢炮 ”?惠普 7L 四盘位小主机解析 最近...
零成本上线!用 Hugging Face免费服务器+Docker 快速部署HertzBeat 监控平台

零成本上线!用 Hugging Face免费服务器+Docker 快速部署HertzBeat 监控平台

零成本上线!用 Hugging Face 免费服务器 +Docker 快速部署 HertzBeat 监控平台 ...