阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop1.x与2.x安装笔记

467次阅读
没有评论

共计 6077 个字符,预计需要花费 16 分钟才能阅读完成。

Hadoop 1.x 安装

Hadoop1.x 集群规划

No

名称

内容

备注

用户

grid

 

用户组

hadoop

有权限运行 hadoop,并可以使用 jdk

服务器

Hadoop11: 192.168.1.211

Hadoop12: 192.168.1.212

Hadoop13: 192.168.1.213

 

系统

Cent OS 7 

 

5

JDK 版本

jdk-7u79-linux-x64.gz 

 

6

Hadoop 版本

hadoop-1.2.1-bin.tar.gz 

 

 

文件传输工具

WinSCP

 

   

  1. 创建用户及所属组

    grid, 用来运行 Hadoop (可选)

    su

    groupadd grid

    useradd –m –s /bin/bash –g grid grid

       

  2. 机器及网络配置

  3. 配置 IP

  4. 修改主机名:

    su

    vi /etc/hostname

    将三台机器的名子改为:hadoop11, hadoop 12, hadooop 13

  5. 配置 host 文件

    切换到 root 帐户下,使用 vi 在修改文件 /etc/hosts,添加三台机器的 IP,及名称。然后使用 ping 命令检查各台机器之间的是否可以通过机器名连通

       

    Hadoop1.x 与 2.x 安装笔记

       

  6. 关闭防火墙

    systemctl stop firewalld.service

  7. 禁止防火墙自启动

    systemctl disable firewalld.service

       

  8. 配置 SSH 无密码登录

    在三台机器上分别执行

    ssh-keygen -t rsa

    cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

    然后在需要输入信息的时候,直接回车。直至命令完成

    Hadoop1.x 与 2.x 安装笔记

       

    使用 ssh 登录机器。检查 SSH 无密码是否配置正确

    Hadoop1.x 与 2.x 安装笔记

       

    将三台的机器的 id_rsa.pub 内容合并,然后将内容写到 authorized_keys,然后使用 SCP 将 authorized_keys 拷贝到其它两台机器上。

    scp id_rsa.pub hadoop11:~/.ssh/h12_id_rsa.pub

    scp id_rsa.pub hadoop11:~/.ssh/h13_id_rsa.pub

       

  9. 安装 JDK

  10. 准备 JKD

    将准备好的 JKD 安装包使用 Winscep 拷贝到 Hadoop11 上

     

  11. 在 root 用户解压安装

    su

    cp jdk-7u79-linux-x64.gz hadoop-1.2.1-bin.tar.gz /usr/local

    tar -zxvf jdk-7u79-linux-x64.gz

       

  12. 为用户赋权限

    在三台机器上执行以下命令

    cd /usr/local

    chown –R grid:hadop jdk-7u79-linux-x64

       

  13. 安装 Hadoop

  14. 准备 hadop 安装包

    使用 winscp 将 hadop 安装包 hadoop-1.2.1-bin.tar.gz 拷贝到 hadoop11 机器上

       

  15. 在 root 用户下解压 hadoop

    su

    cd /usr/local

    tar –zxvf hadoop-1.2.1-bin.tar.gz

  16. 为用户赋权限

    chown R grid:hadoop hadoop-1.2.1

       

  17. 修改配置文件

  18. 修改 hadoop-env.sh

       

  19. 修改 masters,slaves 文件

    Hadoop1.x 与 2.x 安装笔记

  20. 修改 core-site.xml,hdfs-site.xml,mapred-site.xml

    core-site.xml

       

    Hadoop1.x 与 2.x 安装笔记

       

    hdfs-site.xml

    Hadoop1.x 与 2.x 安装笔记

       

    mapred-site.xml

    Hadoop1.x 与 2.x 安装笔记

       

  21. 将配置好的 hadoop 复制到其它各节点

    scp -r jdk1.7.0_79 hadoop12:/usr/local

    scp -r hadoop-1.2.1 hadoop12:/usr/local/

       

    scp -r jdk1.7.0_79 hadoop13:/usr/local

    scp -r hadoop-1.2.1 hadoop13:/usr/local/

       

  22. 在 hadoop12,hadoop13 上设置权限:

    su

    chown -R grid:grid hadoop-1.2.1 jdk1.7.0_79

       

    Hadoop1.x 与 2.x 安装笔记

       

  23. 格式化 hadoop

    bin/hadoop namenode -format

    Hadoop1.x 与 2.x 安装笔记

       

  24. 启动进程

    在 hadoop 安装目录下运行

    bin/start-all.sh

    Hadoop1.x 与 2.x 安装笔记

       

  25. 检查进程

    使用工具 jps on hadoop11

    Hadoop1.x 与 2.x 安装笔记

       

    jps on hadoop12, hadoop13

    Hadoop1.x 与 2.x 安装笔记

       

       

  26. 在 Hadoop 1.x 上运行 wordcount

    Hadoop 一切准备就细后,我们来运行 hadoop 自带的例子 wordcount 来检查下 hadoop 是否能正常工作。

  27. 准备要分析的文件

    cd /usr/local/hadoop-1.2.1/

    mkdir input

    echo “hello word” >test1.txt

    echo “hello hadoop” >test2.txt

  28. 将文件放到 hdfs 文件系统中

    bin/hadoop fs -put /usr/local/hadoop-1.2.1/input in

       

    检查文件创建是否成功

    bin/hadoop fs -lsr in

    Hadoop1.x 与 2.x 安装笔记

       

  29. 运行程序

    bin/hadoop jar hadoop-examples-1.2.1.jar wordcount in out

    Hadoop1.x 与 2.x 安装笔记

       

  30. 查看结果:

    bin/hadoop fs -cat /user/grid/out/part-r-00000

    Hadoop1.x 与 2.x 安装笔记

    作业问题二:Hadoop 2.x 安装

    Hadoop2.x 集群规划

No

名称

内容

备注

用户

grid

 

用户组

hadoop

有权限运行 hadoop,并可以使用 jdk

服务器

Hadoop21: 192.168.1.221

Hadoop22: 192.168.1.222

Hadoop23: 192.168.1.223 

 

系统

Cent OS 7 

 

5

JDK 版本

jdk-7u79-linux-x64.gz 

 

6

Hadoop 版本

hadoop-2.5.2.tar.gz

 

 

文件传输工具

WinSCP

 

   

x 安装的前期准备工作与 hadoop 1.x 类似,具体步骤可以参考 1.x 的安装文件。下面主要介绍 hadoop 2.x 的安装.

  1. 安装 Hadoop

  2. 准备 Hadoop 安装包

    将文件 hadoop-2.5.2.tar.gz 拷贝到 /home/grid

  3. 在 root 用户下解压 hadoop

    su

    cp hadoop-2.5.2.tar.gz /usr/local

    tar -zxvf hadoop-2.5.2.tar.gz

       

  4. 为用户赋权限

    chown -R grid:hadoop hadoop-2.5.2

    exit

       

  5. 修改配置文件:

    hadoop2.x 需要修改如下目录下的七个配置文件

    /usr/local/hadoop-2.5.2/etc/hadoop

    1. yarn-env.sh
    2. hadoop-env.sh
    3. slaves
    4. core-site.xml
    5. hdfs-site.xml
    6. mapred-site.xml(从 mapred-site.xml.template 复制得到)
    7. yarn-site.xml

       

  6. yarn-env.sh

       

    Hadoop1.x 与 2.x 安装笔记

       

  7. hadoop-env.sh

    Hadoop1.x 与 2.x 安装笔记

       

  8. slaves

    Hadoop1.x 与 2.x 安装笔记

       

    1.4.4 core-site.xml

    <configuration>

    <property>

    <name>fs.defaultFS</name>

    <value>hdfs://hadoop21:9000</value>

    <description>change your own hostname</description>

    </property>

    <property>

    <name>io.file.buffer.size</name>

    <value>131072</value>

    </property>

    <property>

    <name>hadoop.tmp.dir</name>

    <value>/usr/local/hadoop-2.5.2/tmp</value>

    </property>

    </configuration>

       

  9. hdfs-site.xml

    <configuration>

       

    <property>

    <name>dfs.namenode.secondary.http-address</name>

    <value>hdfs://hadoop21:9001</value>

    </property>

       

    <property>

    <name>dfs.namenode.name.dir</name>

    <value>file:/usr/local/hadoop-2.5.2/name</value>

    </property>

       

    <property>>

    <name>dfs.datanode.data.dir</name>

    <value>file:/usr/local/hadoop-2.5.2/data</value>

    </property>

       

    <property>

    <name>dfs.replication</name>

    <value>1</value>

    </property>

       

    <property>

    <name>dfs.webhdfs.enabled</name>

    <value>true</value>

    </property>

       

    </configuration>

       

  10. mapred-site.xml

    从 mapred-site.xml.template 复制得到

       

    <configuration>

    <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

    </property>

       

    <property>

    <name>mapreduce.jobhistory.address</name>

    <value>hadoop21:10020</value>

    </property>

       

    <property>>

    <name>mapreduce.jobhistory.webapp.address</name>

    <value>hadoop21:19888</value>

    </property>

       

    </configuration>

       

  11. yarn-site.xml

    <configuration>

       

    <property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

    </property>

       

    <property>

    <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>

    <value>org.apache.hadoop.mapred.ShuffleHandler</value>

    </property>

       

    <property>

    <name>yarn.resourcemanager.address</name>

    <value>hadoop21:8022</value>

    </property>

       

    <property>

    <name>yarn.resourcemanager.scheduler.address</name>

    <value>hadoop21:8030</value>

    </property>

       

    <property>

    <name>yarn.resourcemanager.resource-tracker.address</name>

    <value>hadoop21:8031</value>

    </property>

       

    <property>

    <name>yarn.resourcemanager.admin.address</name>

    <value>hadoop21:8033</value>

    </property>

       

       

    <property>

    <name>yarn.resourcemanager.webapp.address</name>

    <value>hadoop21:8088</value>

    </property>

       

    </configuration>

       

  12. 复制配置好的 Hadoop 到其它节点

    scp -r hadoop-2.5.2 hadoop22:/usr/local

    scp -r hadoop-2.5.2 hadoop23:/usr/local

       

  13. 在 hadoop22,hadoop23 上执行命令设置权限

    chown -R grid:hadoop hadoop-2.5.2 jdk1.7.0_79

       

  14. 格式化 Hadop

    bin/hdfs namenode -format

       

    Hadoop1.x 与 2.x 安装笔记

       

  15. 启动 Hadoop

    sbin/start-dfs.sh

    sbin/start-yarn.sh

       

  16. 检查进程

    /usr/local/jdk1.7.0_79/bin/jps

       

    hadoop21:

    Hadoop1.x 与 2.x 安装笔记

       

    hadoop22

    Hadoop1.x 与 2.x 安装笔记

       

    hadoop23

    Hadoop1.x 与 2.x 安装笔记

       

       

  17. 使用 Hadoop 2.x 运行示例

  18. 准备文件

    mkdir input

    cd input

    echo “hello word” >test1.txt

    echo “hello hadoop” >test2.txt

  19. 将文件放到 hdfs 文件系统中

    bin/hadoop fs -put /usr/local/hadoop-2.5.2/input /in

    Hadoop1.x 与 2.x 安装笔记

       

  20. 运行程序

    bin/hadoop jar /usr/local/hadoop-2.5.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.2.jar wordcount /in/* /out

    Hadoop1.x 与 2.x 安装笔记

       

  21. 查看结果:

       

    bin/hadoop fs -ls -R /out

    bin/hadoop fs -cat /out/part-r-00000

       

    Hadoop1.x 与 2.x 安装笔记

下面关于 Hadoop 的文章您也可能喜欢,不妨看看:

Ubuntu14.04 下 Hadoop2.4.1 单机 / 伪分布式安装配置教程  http://www.linuxidc.com/Linux/2015-02/113487.htm

CentOS 安装和配置 Hadoop2.2.0  http://www.linuxidc.com/Linux/2014-01/94685.htm

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

本文永久更新链接地址:http://www.linuxidc.com/Linux/2015-11/125224.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-21发表,共计6077字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7994335
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
开发者福利:免费 .frii.site 子域名,一分钟申请即用

开发者福利:免费 .frii.site 子域名,一分钟申请即用

  开发者福利:免费 .frii.site 子域名,一分钟申请即用 前言 在学习 Web 开发、部署...
【开源神器】微信公众号内容单篇、批量下载软件

【开源神器】微信公众号内容单篇、批量下载软件

【开源神器】微信公众号内容单篇、批量下载软件 大家好,我是星哥,很多人都希望能高效地保存微信公众号的文章,用于...
【1024程序员】我劝你赶紧去免费领一个AWS、华为云等的主机

【1024程序员】我劝你赶紧去免费领一个AWS、华为云等的主机

【1024 程序员】我劝你赶紧去免费领一个 AWS、华为云等的主机 每年 10 月 24 日,程序员们都会迎来...
让微信公众号成为 AI 智能体:从内容沉淀到智能问答的一次升级

让微信公众号成为 AI 智能体:从内容沉淀到智能问答的一次升级

让微信公众号成为 AI 智能体:从内容沉淀到智能问答的一次升级 大家好,我是星哥,之前写了一篇文章 自己手撸一...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
恶意团伙利用 PHP-FPM 未授权访问漏洞发起大规模攻击

恶意团伙利用 PHP-FPM 未授权访问漏洞发起大规模攻击

恶意团伙利用 PHP-FPM 未授权访问漏洞发起大规模攻击 PHP-FPM(FastCGl Process M...
支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare 也瘫了连监控都挂,根因藏在哪? 最近两天的互联网堪称“故障...
还在找免费服务器?无广告免费主机,新手也能轻松上手!

还在找免费服务器?无广告免费主机,新手也能轻松上手!

还在找免费服务器?无广告免费主机,新手也能轻松上手! 前言 对于个人开发者、建站新手或是想搭建测试站点的从业者...
每年0.99刀,拿下你的第一个顶级域名,详细注册使用

每年0.99刀,拿下你的第一个顶级域名,详细注册使用

每年 0.99 刀,拿下你的第一个顶级域名,详细注册使用 前言 作为长期折腾云服务、域名建站的老玩家,星哥一直...
如何安装2026年最强个人助理ClawdBot、完整安装教程

如何安装2026年最强个人助理ClawdBot、完整安装教程

如何安装 2026 年最强个人助理 ClawdBot、完整安装教程 一、前言 学不完,根本学不完!近期,一款名...