阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

虚拟机下Hadoop1.1.2集群环境搭建

388次阅读
没有评论

共计 5859 个字符,预计需要花费 15 分钟才能阅读完成。

Hadoop 集群环境的搭建和单机版的搭建差不多,就是多了一些文件的配置操作。

一、3 台主机的 hostname 修改和 IP 地址绑定

注意:下面的操作我都是使用 root 权限进行!

(1)3 太主机的基本网络环境

CentOS6.5,32 位,在虚拟机下实现。

我在虚拟机下安装了 3 个 centos6.5 系统,其 IP 地址和主机名分别如下:

192.168.1.103 hadoop

192.168.1.105 hadoop0

192.168.1.106 hadoop1

虚拟机下 Hadoop1.1.2 集群环境搭建

这里,hadoop 是 master,hadoop0 和 hadoop1 是两个 slaves。

 

(2)IP 地址与 hostname 绑定

在 hadoop 主机下:

vi /etc/sysconfig/network

将 HOSTNAME 修改为 hadoop,见下图:

虚拟机下 Hadoop1.1.2 集群环境搭建

在 hadoop0 主机下操作类似,将 HOSTNAME 修改为 hadoop0;在 hadoop1 主机下操作类似,将 HOSTNAME 修改为 hadoop1。

 

在 hadoop 主机下:

输入:vi /etc/hosts,在 hosts 下添加如下内容:

192.168.1.103  hadoop
192.168.1.105  hadoop0
192.168.1.106  hadoop1

然后通过 scp 命令,将修改好的 hosts 复制到 hadoop0 和 hadoop1 的 /etc/hosts 文件夹下覆盖:

scp  /etc/hosts  root@hadoop0:/etc/hosts
scp  /etc/hosts  root@hadoop1:/etc/hosts

(3)测试 3 太主机之间是否能 Ping 通

在 3 台主机下分别输入:

ping hadoop
ping hadoop0
ping hadoop1

如果 3 太主机都能 ping 通,那说明前面的配置成功。

————————————– 分割线 ————————————–

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

————————————– 分割线 ————————————–

二、SSH 免密码登陆

在 hadoop 主机下:

 

1. 查看当前用户下 (root) 是否有.ssh 的隐藏文件,如果没有就创建一个

mkdir .ssh

2. 输入 ssh-keygen -t rsa

这个命令会在.ssh 文件夹下生成 id_dsa 和 id_ds.pub 两个文件,这私钥和公钥。

3. 输入

cp id_rsa.pub authorized_keys

这条命令是把公钥加到用于认证的公钥文件中

4. 验证 SSH 是否安装成功,以及是否可以免密码登陆本机

ssh localhost

如果显示如下,表示安装成功

虚拟机下 Hadoop1.1.2 集群环境搭建

5. 将 authorized_keys 复制到 hadoop0 和 hadoop1 下的.ssh 文件,这样就可以免密码登陆 hadoop0 和 hadoop1 了。

scp authorized_keys root@hadoop0:.ssh/
scp authorized_keys root@hadoop1:.ssh/

6. 测试

在 hadoop 主机下输入:

在第一次登陆是需要密码,以后则不要。到此,ssh 的免密码登陆完成。

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-08/105267p2.htm

三、jdk 的安装和 java 环境变量配置

(1)安装 jdk1.6

这里,我使用的 jdk 安装包如下,大家可以上网自行下载,这里推荐 jdk 为 1.6 为好。

在 Hadoop 下:

虚拟机下 Hadoop1.1.2 集群环境搭建

将 jdk 安装包移动到 /usr/local 这个目录下,(local 下的文件可以删除,没有用的)。

然后首先是给 jdk 安装包“X”的执行权限,chmod u+x jdk-6u24-linux-i586.bin。(如有 x 权限请忽略这一步)

然后就是执行安装即可,jdk-6u24-linux-i586.bin。

然后将 /usr/local 下 jdk 的文件夹从命名为 jdk。然后通过 scp 命令将 jdk 文件夹复制到另外两个 slaves 主机。

scp -r /etc/local/jdk root@hadoop0:/etc/local
scp -r /etc/local/jdk root@hadoop1:/etc/local

(2)设置环境变量

接下来就是配置环境变量:

vi /etc/profile

export JAVA_HOME=/usr/local/jdk
export PATH=.:$JAVA_HOME/bin:$PATH

输入 source /etc/profile 使配置文件生效。

检查 jdk 是否安装配置成功,java -version,若显示如下,表示安装成功。

虚拟机下 Hadoop1.1.2 集群环境搭建

同样,将 profile 复制到另外两台主机。

scp /etc/profile root@hadoop0:/etc/
scp /etc/profile root@hadoop1:/etc/

在 hadoop0 和 hadoop1 下检查是否安装 jdk 成功。注意请先使用 source /etc/profile 更新命令。

 

如果现实如上图,则表示 3 台主机的 jdk 安装和配置成功。

 

四、安装和配置 hadoop

 

(1)解压安装 hadoop1.1.2

在 hadoop 主机下:

下载并将 hadoop-1.1.2.tar.gz 解压到当前用户目录下(/usr/local)。

tar -zxvf  hadoop-1.1.2.tar.gz

然后将 hadoop 文件夹重命名为 hadoop。

 

(2)配置 hadoop

在 hadoop 主机下:

进入 hadoop 文件夹下的 conf 夹,修改配置文件。

1. 指定 jdk 安装位置:

Hadoop-env.sh:

export JAVA_HOME=/usr/local/jdk

2.hadoop 核心配置文件,配置 HDFS 地址和段口号。

core-site.xml

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://hadoop:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
    </property>
</configuration>

3.hdfs-site.xml,默认的配置方式是 3,这里表示副本数是 3,由于我们搭建的子节点只有 2 个,所以输入 1 或 2。

hdfs-site.xml

<configuration>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
</configuration>

4. 配置 MapReduce 文件,配置 JobTracker 的地址和端口

mapred-site.xml

<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop:9001</value>
</property>
</configuration>

5‘修改 masters 文件

hadoop

6. 修改 slaves 文件

hadoop0
hadoop1

然后将 hadoop 文件夹复制到另外 2 台主机。

scp /uer/local/hadoop root@hadoop0:/etc/local/
scp /uer/local/hadoop root@hadoop1:/etc/local/

接下来要修改环境变量:

 

vi /etc/profile

export JAVA_HOME=/usr/local/jdk
export HADOOP_HOME=/usr/local/hadoop
export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

同样,将 profile 复制到另外两台主机上,操作见三(2)。

 

 

(3)启动 hadoop

在 hadoop 下:

输入:

hadoop namenode -format

然后通过 start-all.sh 启动所有进程:

start-all.sh

可以通过 jps 命令来查看运行的进程,如果成功运行,那么将会有 5 个进程运行,如下图:
在 hadoop 下:

虚拟机下 Hadoop1.1.2 集群环境搭建

在 hadoop0 下:

虚拟机下 Hadoop1.1.2 集群环境搭建

在 hadoop1 下:

虚拟机下 Hadoop1.1.2 集群环境搭建

 

至此,hadoop 启动成功,要想看集群状态,可以打开下面两个网址:

localhost:50030(mapreduce 的 web 页面)

localhost:50070(HDFS 的 web 页面)

 

如果想在 windows 下访问这两个网址,那么就需要关闭 CentOS 的防火墙,否则访问不了。(3 台主机都要关闭防火墙)

命令:service iptables stop

使用:chkconfig iptables off,可以关闭防火墙的自动运行

虚拟机下 Hadoop1.1.2 集群环境搭建

虚拟机下 Hadoop1.1.2 集群环境搭建

备注:我也是刚起步学习 hadoop,可能文章有一些不完整或错误的地方,还请大家多多指教,也希望能交流学习,互相促进提高。虚拟机下 Hadoop1.1.2 集群环境搭建

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

Hadoop 集群环境的搭建和单机版的搭建差不多,就是多了一些文件的配置操作。

一、3 台主机的 hostname 修改和 IP 地址绑定

注意:下面的操作我都是使用 root 权限进行!

(1)3 太主机的基本网络环境

CentOS6.5,32 位,在虚拟机下实现。

我在虚拟机下安装了 3 个 centos6.5 系统,其 IP 地址和主机名分别如下:

192.168.1.103 hadoop

192.168.1.105 hadoop0

192.168.1.106 hadoop1

虚拟机下 Hadoop1.1.2 集群环境搭建

这里,hadoop 是 master,hadoop0 和 hadoop1 是两个 slaves。

 

(2)IP 地址与 hostname 绑定

在 hadoop 主机下:

vi /etc/sysconfig/network

将 HOSTNAME 修改为 hadoop,见下图:

虚拟机下 Hadoop1.1.2 集群环境搭建

在 hadoop0 主机下操作类似,将 HOSTNAME 修改为 hadoop0;在 hadoop1 主机下操作类似,将 HOSTNAME 修改为 hadoop1。

 

在 hadoop 主机下:

输入:vi /etc/hosts,在 hosts 下添加如下内容:

192.168.1.103  hadoop
192.168.1.105  hadoop0
192.168.1.106  hadoop1

然后通过 scp 命令,将修改好的 hosts 复制到 hadoop0 和 hadoop1 的 /etc/hosts 文件夹下覆盖:

scp  /etc/hosts  root@hadoop0:/etc/hosts
scp  /etc/hosts  root@hadoop1:/etc/hosts

(3)测试 3 太主机之间是否能 Ping 通

在 3 台主机下分别输入:

ping hadoop
ping hadoop0
ping hadoop1

如果 3 太主机都能 ping 通,那说明前面的配置成功。

————————————– 分割线 ————————————–

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

————————————– 分割线 ————————————–

二、SSH 免密码登陆

在 hadoop 主机下:

 

1. 查看当前用户下 (root) 是否有.ssh 的隐藏文件,如果没有就创建一个

mkdir .ssh

2. 输入 ssh-keygen -t rsa

这个命令会在.ssh 文件夹下生成 id_dsa 和 id_ds.pub 两个文件,这私钥和公钥。

3. 输入

cp id_rsa.pub authorized_keys

这条命令是把公钥加到用于认证的公钥文件中

4. 验证 SSH 是否安装成功,以及是否可以免密码登陆本机

ssh localhost

如果显示如下,表示安装成功

虚拟机下 Hadoop1.1.2 集群环境搭建

5. 将 authorized_keys 复制到 hadoop0 和 hadoop1 下的.ssh 文件,这样就可以免密码登陆 hadoop0 和 hadoop1 了。

scp authorized_keys root@hadoop0:.ssh/
scp authorized_keys root@hadoop1:.ssh/

6. 测试

在 hadoop 主机下输入:

在第一次登陆是需要密码,以后则不要。到此,ssh 的免密码登陆完成。

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-08/105267p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计5859字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7978934
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
开发者福利:免费 .frii.site 子域名,一分钟申请即用

开发者福利:免费 .frii.site 子域名,一分钟申请即用

  开发者福利:免费 .frii.site 子域名,一分钟申请即用 前言 在学习 Web 开发、部署...
国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号 AI 知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率 大家好,我是星哥,...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛 NAS-5:飞牛 NAS 中的 Docker 功能介绍 大家好,我是星哥,今天给大家带来如何在...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
把小米云笔记搬回家:飞牛 NAS 一键部署,小米云笔记自动同步到本地

把小米云笔记搬回家:飞牛 NAS 一键部署,小米云笔记自动同步到本地

把小米云笔记搬回家:飞牛 NAS 一键部署,小米云笔记自动同步到本地 大家好,我是星哥,今天教大家在飞牛 NA...
仅2MB大小!开源硬件监控工具:Win11 无缝适配,CPU、GPU、网速全维度掌控

仅2MB大小!开源硬件监控工具:Win11 无缝适配,CPU、GPU、网速全维度掌控

还在忍受动辄数百兆的“全家桶”监控软件?后台偷占资源、界面杂乱冗余,想查个 CPU 温度都要层层点选? 今天给...
国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号 AI 知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率 大家好,我是星哥,...
三大开源投屏神器横评:QtScrcpy、scrcpy、escrcpy 谁才是跨平台控制 Android 的最优解?

三大开源投屏神器横评:QtScrcpy、scrcpy、escrcpy 谁才是跨平台控制 Android 的最优解?

  三大开源投屏神器横评:QtScrcpy、scrcpy、escrcpy 谁才是跨平台控制 Andr...
每天一个好玩的网站-手机博物馆-CHAZ 3D Experience

每天一个好玩的网站-手机博物馆-CHAZ 3D Experience

每天一个好玩的网站 - 手机博物馆 -CHAZ 3D Experience 一句话介绍:一个用 3D 方式重温...