阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop2.2.0安装

433次阅读
没有评论

共计 9141 个字符,预计需要花费 23 分钟才能阅读完成。

第一部分 Hadoop2.2 下载

Hadoop我们从 Apache 官方网站直接下载最新版本 Hadoop2.2。官方目前是提供了linux32 位系统可执行文件 ,( 最下方有 FAQ 解决 64)

下载地址:http://apache.claz.org/hadoop/common/hadoop-2.2.0/

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

 

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

 

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

 

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

 

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

 

第二部分集群环境搭建

1、这里我们搭建一个由三台机器组成的集群:

IP user/passwd hostname

192.168.101.114 root/test123 hadoop1 nn/snn/rm GNU/Linux x86_64

192.168.101.115 root/test123 hadoop2 dn/nm GNU/Linux x86_64

192.168.101.116 root/test123 hadoop3 dn/nm GNU/Linux x86_64

1.1 上面各列分别为 IPuser/passwdhostname、在cluster 中充当的角色(namenode,secondary namenode, datanode , resourcemanager, nodemanager

2、修改 /etc/hosts 文件,增加三台机器的 iphostname的映射关系

192.168.101.114 hadoop1

192.168.101.115 hadoop2

192.168.101.116 hadoop3

3、打通 hadoop1hadoop2hadoop3SSH 无密码登陆

3.1 安装ssh

一般系统是默认安装了 ssh 命令的。如果没有,或者版本比较老,则可以重新安装:

sodu apt-get install ssh

3.2设置 local 无密码登陆

安装完成后会在 ~ 目录(当前用户主目录,即这里的 /home/hduser)下产生一个隐藏文件夹.sshls -a 可以查看隐藏文件)。如果没有这个文件,自己新建即可(mkdir .ssh)。

具体步骤如下:

hadoop 安装用户下执行:

1、进入 .ssh 文件夹

2 ssh-keygen -t rsa之后一路回车(产生秘钥)

3、把 id_rsa.pub 追加到授权的 key 里面去

> cat id_rsa.pub >>authorized_keys

切换至 root 用户:

4、重启 SSH 服务命令使其生效 :service sshdrestart

此时已经可以进行 ssh localhost 的无密码登陆

【注意】:以上操作在每台机器上面都要进行。

3.3设置远程无密码登陆

每台机器执行完后,把做为 namenode 机器的 id_rsa.pub 复制到其他两机器改名为 id_rsa_1.pub ,追加到

cat id_rsa.pub_1 >> authorized_keys

重启后用 hadoop1 机器验证:

>ssh hadoop2

> exit

>ssh hadoop3

>exit

这样通道就打开了。

4、安装 jdk( 建议每台机器的 JAVA_HOME 路径信息相同)

注意:这里选择下载 jdk 并自行安装,而不是通过源直接安装(apt-get install

4.1、下载jkdhttp://www.Oracle.com/technetwork/java/javase/downloads/index.html

4.1.1 对于 32 位的系统可以下载以下两个 Linuxx86 版本(uname -a查看系统版本)

4.1.2 64位系统下载 Linux x64 版本 (x64.rpmx64.tar.gz)

4.2、安装 jdk(这里以.tar.gz 版本,32位系统为例)

安装方法参考http://docs.oracle.com/javase/7/docs/webnotes/install/linux/linux-jdk.html

4.2.1 选择要安装 java 的位置,如 /usr/ 目录下,新建文件夹java(mkdirjava)

4.2.2 将文件 jdk-7u40-linux-i586.tar.gz 移动到/usr/java

4.2.3 解压:tar -zxvfjdk-7u40-linux-i586.tar.gz

4.2.4 删除jdk-7u40-linux-i586.tar.gz(为了节省空间)

至此,jkd安装完毕,下面配置环境变量

4.3、打开/etc/profilevim/etc/profile

在最后面添加如下内容:

JAVA_HOME=/usr/java/jdk1.7.0_40(这里的版本号 1.7.40 要根据具体下载情况修改)

CLASSPATH=.:$JAVA_HOME/lib.tools.jar

PATH=$JAVA_HOME/bin:$PATH

export JAVA_HOMECLASSPATH PATH

4.4source /etc/profile

4.5、验证是否安装成功:javaversion

【注意】每台机器执行相同操作,最后将 java 安装在相同路径下(不是必须的,但这样会使后面的配置方便很多)

5、���闭每台机器的防火墙

RedHat:

/etc/init.d/iptables stop 关闭防火墙。

chkconfig iptables off 关闭开机启动。

 

 

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-04/100385p2.htm

第三部分 Hadoop 2.2 安装过程

由于 hadoop 集群中每个机器上面的配置基本相同,所以我们先在 namenode 上面进行配置部署,然后再 复制到其他节点 。所以这里的安装过程相当于在每台机器上面都要执行。但需要注意的是集群中64 位系统和 32 位系统的问题。

1解压文件

将第一部分中下载的 hadoop-2.2.tar.gz 解压到 /home/hduser 路径下(或者将在 64 位机器上编译的结果存放在此路径下)。然后为了节省空间,可删除此压缩文件,或将其存放于其他地方进行备份。

注意:每台机器的安装路径要相同!!

2 hadoop配置过程

配置之前,需要在 hadoop1 本地文件系统创建以下文件夹:

~/dfs/name

~/dfs/data

~/temp

这里要涉及到的配置文件有 7 个:

~/hadoop-2.2.0/etc/hadoop/hadoop-env.sh

~/hadoop-2.2.0/etc/hadoop/yarn-env.sh

~/hadoop-2.2.0/etc/hadoop/slaves

~/hadoop-2.2.0/etc/hadoop/core-site.xml

~/hadoop-2.2.0/etc/hadoop/hdfs-site.xml

~/hadoop-2.2.0/etc/hadoop/mapred-site.xml

~/hadoop-2.2.0/etc/hadoop/yarn-site.xml

以上 个别 文件默认不存在的,可以复制相应的 template 文件获得。

配置文件1hadoop-env.sh

修改 JAVA_HOME 值(exportJAVA_HOME=/usr/java/jdk1.7.0_40

配置文件2yarn-env.sh

修改 JAVA_HOME 值(exportJAVA_HOME=/usr/java/jdk1.7.0_40

配置文件 3slaves(这个文件里面保存所有slave 节点)

写入以下内容:

hadoop2

hadoop3

配置文件4core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://hadoop1:9000</value>

</property>

<property>

<name>io.file.buffer.size</name>

<value>131072</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/home/hduser/tmp</value>

<description>Abase for othertemporary directories.</description>

</property>

<property>

<name>hadoop.proxyuser.hduser.hosts</name>

<value>*</value>

</property>

<property>

<name>hadoop.proxyuser.hduser.groups</name>

<value>*</value>

</property></configuration>

配置文件5hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>hadoop1:9001</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/home/hduser/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

< value>file:/home/hduser/dfs/data</value>

</property>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<property>

< name>dfs.webhdfs.enabled</name>

<value>true</value>

</property> </configuration>

配置文件6mapred-site.xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>hadoop1:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>hadoop1:19888</value>

</property>

</configuration>

配置文件7yarn-site.xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.resourcemanager.address</name>

<value>hadoop1:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>hadoop1:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>hadoop1:8031</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>hadoop1:8033</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>hadoop1:8088</value>

</property>

</configuration>

3、复制到其他节点

把如上修改的文件复制到其他两台机器上,不做修改

 

4、启动验证

4.1 启动hadoop

进入安装目录: cd ~/hadoop-2.2.0/

格式化namenode./bin/hdfsnamenode –format

启动hdfs: ./sbin/start-dfs.sh

此时在 001 上面运行的进程有:namenodesecondarynamenode

002003 上面运行的进程有:datanode

启动yarn: ./sbin/start-yarn.sh

此时在 001 上面运行的进程有:namenodesecondarynamenoderesourcemanager

002003 上面运行的进程有:datanodenodemanaget

查看集群状态:./bin/hdfs dfsadmin –report

查看文件块组成: ./bin/hdfsfsck / -files-blocks

查看HDFS: http://192.168.101.114:50070

查看RM: http://192.168.101.114:8088

4.2 运行示例程序:

先在 hdfs 上创建一个文件夹

./bin/hdfsdfs –mkdir /input

./bin/hadoopjar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jarrandomwriterinput

FAQ:

使用 命令> hadoop fs -ls /

WARNutil.NativeCodeLoader: Unable to load native-hadoop library for yourplatform… using builtin

问题:Hadoop本地库与系统版本不一致引起的错误。

解决:

查看本地文件

Ø file /hadoop-2.2.0/lib/native/libhadoop.so.1.0.0

libhadoop.so.1.0.0:ELF 32-bit LSB shared object, Intel 80386, version 1 (SYSV), dynamicallylinked, not stripped

hadoop32位的。

一.重新下载 hadoop 64 位版本安装。

二.可以直接用编译好的 native.tar.gz 替换/opt/hadoop/hadoop-2.2.0/lib/native

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

第一部分 Hadoop2.2 下载

Hadoop我们从 Apache 官方网站直接下载最新版本 Hadoop2.2。官方目前是提供了linux32 位系统可执行文件 ,( 最下方有 FAQ 解决 64)

下载地址:http://apache.claz.org/hadoop/common/hadoop-2.2.0/

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

 

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

 

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

 

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

 

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

 

第二部分集群环境搭建

1、这里我们搭建一个由三台机器组成的集群:

IP user/passwd hostname

192.168.101.114 root/test123 hadoop1 nn/snn/rm GNU/Linux x86_64

192.168.101.115 root/test123 hadoop2 dn/nm GNU/Linux x86_64

192.168.101.116 root/test123 hadoop3 dn/nm GNU/Linux x86_64

1.1 上面各列分别为 IPuser/passwdhostname、在cluster 中充当的角色(namenode,secondary namenode, datanode , resourcemanager, nodemanager

2、修改 /etc/hosts 文件,增加三台机器的 iphostname的映射关系

192.168.101.114 hadoop1

192.168.101.115 hadoop2

192.168.101.116 hadoop3

3、打通 hadoop1hadoop2hadoop3SSH 无密码登陆

3.1 安装ssh

一般系统是默认安装了 ssh 命令的。如果没有,或者版本比较老,则可以重新安装:

sodu apt-get install ssh

3.2设置 local 无密码登陆

安装完成后会在 ~ 目录(当前用户主目录,即这里的 /home/hduser)下产生一个隐藏文件夹.sshls -a 可以查看隐藏文件)。如果没有这个文件,自己新建即可(mkdir .ssh)。

具体步骤如下:

hadoop 安装用户下执行:

1、进入 .ssh 文件夹

2 ssh-keygen -t rsa之后一路回车(产生秘钥)

3、把 id_rsa.pub 追加到授权的 key 里面去

> cat id_rsa.pub >>authorized_keys

切换至 root 用户:

4、重启 SSH 服务命令使其生效 :service sshdrestart

此时已经可以进行 ssh localhost 的无密码登陆

【注意】:以上操作在每台机器上面都要进行。

3.3设置远程无密码登陆

每台机器执行完后,把做为 namenode 机器的 id_rsa.pub 复制到其他两机器改名为 id_rsa_1.pub ,追加到

cat id_rsa.pub_1 >> authorized_keys

重启后用 hadoop1 机器验证:

>ssh hadoop2

> exit

>ssh hadoop3

>exit

这样通道就打开了。

4、安装 jdk( 建议每台机器的 JAVA_HOME 路径信息相同)

注意:这里选择下载 jdk 并自行安装,而不是通过源直接安装(apt-get install

4.1、下载jkdhttp://www.Oracle.com/technetwork/java/javase/downloads/index.html

4.1.1 对于 32 位的系统可以下载以下两个 Linuxx86 版本(uname -a查看系统版本)

4.1.2 64位系统下载 Linux x64 版本 (x64.rpmx64.tar.gz)

4.2、安装 jdk(这里以.tar.gz 版本,32位系统为例)

安装方法参考http://docs.oracle.com/javase/7/docs/webnotes/install/linux/linux-jdk.html

4.2.1 选择要安装 java 的位置,如 /usr/ 目录下,新建文件夹java(mkdirjava)

4.2.2 将文件 jdk-7u40-linux-i586.tar.gz 移动到/usr/java

4.2.3 解压:tar -zxvfjdk-7u40-linux-i586.tar.gz

4.2.4 删除jdk-7u40-linux-i586.tar.gz(为了节省空间)

至此,jkd安装完毕,下面配置环境变量

4.3、打开/etc/profilevim/etc/profile

在最后面添加如下内容:

JAVA_HOME=/usr/java/jdk1.7.0_40(这里的版本号 1.7.40 要根据具体下载情况修改)

CLASSPATH=.:$JAVA_HOME/lib.tools.jar

PATH=$JAVA_HOME/bin:$PATH

export JAVA_HOMECLASSPATH PATH

4.4source /etc/profile

4.5、验证是否安装成功:javaversion

【注意】每台机器执行相同操作,最后将 java 安装在相同路径下(不是必须的,但这样会使后面的配置方便很多)

5、���闭每台机器的防火墙

RedHat:

/etc/init.d/iptables stop 关闭防火墙。

chkconfig iptables off 关闭开机启动。

 

 

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-04/100385p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计9141字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7985430
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
安装并使用谷歌AI编程工具Antigravity(亲测有效)

安装并使用谷歌AI编程工具Antigravity(亲测有效)

  安装并使用谷歌 AI 编程工具 Antigravity(亲测有效) 引言 Antigravity...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
150元打造低成本NAS小钢炮,捡一块3865U工控板

150元打造低成本NAS小钢炮,捡一块3865U工控板

150 元打造低成本 NAS 小钢炮,捡一块 3865U 工控板 一块二手的熊猫 B3 工控板 3865U,搭...
星哥带你玩飞牛NAS-16:不再错过公众号更新,飞牛NAS搭建RSS

星哥带你玩飞牛NAS-16:不再错过公众号更新,飞牛NAS搭建RSS

  星哥带你玩飞牛 NAS-16:不再错过公众号更新,飞牛 NAS 搭建 RSS 对于经常关注多个微...
在Windows系统中通过VMware安装苹果macOS15

在Windows系统中通过VMware安装苹果macOS15

在 Windows 系统中通过 VMware 安装苹果 macOS15 许多开发者和爱好者希望在 Window...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
自己手撸一个AI智能体—跟创业大佬对话

自己手撸一个AI智能体—跟创业大佬对话

自己手撸一个 AI 智能体 — 跟创业大佬对话 前言 智能体(Agent)已经成为创业者和技术人绕...
支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare 也瘫了连监控都挂,根因藏在哪? 最近两天的互联网堪称“故障...
星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛 NAS-12:开源笔记的进化之路,效率玩家的新选择 前言 如何高效管理知识与笔记,已经成为技术...
小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比 星哥玩云,带你从小白到上云高手。今天咱们就来聊聊——什...
如何安装2026年最强个人助理ClawdBot、完整安装教程

如何安装2026年最强个人助理ClawdBot、完整安装教程

如何安装 2026 年最强个人助理 ClawdBot、完整安装教程 一、前言 学不完,根本学不完!近期,一款名...