阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop2.2.0伪分布式搭建

423次阅读
没有评论

共计 7672 个字符,预计需要花费 20 分钟才能阅读完成。

一、准备 Linux 环境
1、更改 VMware 适配器设置
    由于是在单机环境下进行学习的,因此选择适配器模式是 host-only 模式,如果想要联网,可以选择桥接模式,配置的方式差不多。

    点击 VMware 快捷方式,右键打开文件所在位置 -> 双击 vmnetcfg.exe -> VMnet1 host-only -> 修改 subnet ip 设置网段:192.168.85.0 子网掩码:255.255.255.0 -> apply -> ok
   
    回到 windows –> 打开网络和共享中心 -> 更改适配器设置 -> 右键 VMnet1 -> 属性 -> 双击 IPv4 -> 设置 windows 的 IP:192.168.85.100 子网掩码:255.255.255.0 -> 点击确定
   
    在虚拟软件上 –My Computer -> 选中虚拟机 -> 右键 -> settings -> network adapter -> host only -> ok
2、修改主机名
在 linux 命令窗口敲入以下命令   
vim /etc/sysconfig/network

修改主机名(带 #号的为必须修改项)
NETWORKING=yes
HOSTNAME=hucc01    ###

3、修改 ip
修改 ip 有三种方式:

第一种:通过 Linux 图形界面进行修改(比较简单)
进入 Linux 图形界面 -> 右键点击右上方的两个小电脑 -> 点击 Edit connections -> 选中当前网络 System eth0 -> 点击 edit 按钮 -> 选择 IPv4 -> method 选择为 manual -> 点击 add 按钮 -> 添加 IP:192.168.85.11 子网掩码:255.255.255.0 网关:192.168.85.1 -> apply

第二种:通过 Linux 命令窗口进行修改(难度适中)
进入 linux 命令窗口,输入以下命令

setup

Hadoop2.2.0 伪分布式搭建

选择网络配置 -> 设备配置 -> etho -> 配置好相对应静态 IP、子网掩码、默认网关 IP 等信息即可。

第三种:修改配置文件方式(程序猿专用,一般人不会)(带 #号的为必须修改项)
在 linux 命令窗口敲入以下命令   
vim /etc/sysconfig/network

修改 ip 信息
DEVICE=”eth0″
BOOTPROTO=”static”          ###
HWADDR=”00:0C:29:3C:BF:E7″
IPV6INIT=”yes”
NM_CONTROLLED=”yes”
ONBOOT=”yes”
TYPE=”Ethernet”
UUID=”ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c”
IPADDR=”192.168.85.11″      ###
NETMASK=”255.255.255.0″      ###
GATEWAY=”192.168.85.1″        ###

4、修改主机名与 IP 的映射关系
在 linux 命令窗口敲入以下命令   
vim /etc/hosts

修改映射关系,添加如下内容
192.168.1.44    hucc01

5、关闭防火墙
# 查看防火墙状态
service iptables status

# 关闭防火墙
service iptables stop

# 查看防火墙开机启动状态
chkconfig iptables –list

# 关闭防火墙开机启动
chkconfig iptables off

6、重启 linux

reboot

————————————– 分割线 ————————————–

Ubuntu14.04 下 Hadoop2.4.1 单机 / 伪分布式安装配置教程  http://www.linuxidc.com/Linux/2015-02/113487.htm

CentOS 安装和配置 Hadoop2.2.0  http://www.linuxidc.com/Linux/2014-01/94685.htm

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

————————————– 分割线 ————————————–

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2015-02/114050p2.htm

二、安装 jdk

1、卸载 centerOS 自带的 openJDK
如果不卸载 centerOS 自带的 openJDK,那么自己安装 jdk1.7.0_55 将不会生效。
java -version

查看当前的 java 版本

Hadoop2.2.0 伪分布式搭建

rpm -qa | grep jdk

查看 centerOS 上所有的 openJDK 版本

Hadoop2.2.0 伪分布式搭建

逐个删除即可
rpm -e –nodeps java-1.7.0-openjdk-1.7.0.9-2.3.4.1.el6_3.i686
rpm -e –nodeps java-1.6.0-openjdk-1.6.0.0-1.50.1.11.5.el6_3.i686

再次查看 centerOS 上所有的 openJDK 版本
rpm -qa | grep jdk

如果没有内容则删除成功了
2、下载并上传 jdk
到 Oracle 官网下载 jdk 的 linux 版本,我下载的是 jdk-7u55-linux-i586.tar.gz。
使用 SecureFX 将压缩包上传到 linux 上。
3、解压 jdk
# 创建文件夹
mkdir /usr/local/src

# 解压
tar -zxvf jdk-7u55-linux-i586.tar.gz -C /usr/local/src/

4、将 java 添加到环境变量中
vim /etc/profile

# 在文件最后添加
export JAVA_HOME=/usr/local/src/jdk1.7.0_55
export PATH=$PATH:$JAVA_HOME/bin

# 刷新配置
source /etc/profile

三、安装 Hadoop

1、下载并上传 hadoop 安装包
从官网 http://archive.apache.org/dist/ 下载 hadoop-2.2.0.tar.gz 压缩包
使用 SecureFX 将压缩包上传到 linux 上
2、解压 hadoop
# 解压
tar -zxvf hadoop-2.2.0.tar.gz -C /usr/local/src/

3、修改配置文件(一共 5 个)
(1)修改 hadoop-env.sh
vim /usr/local/src/hadoop-2.2.0/etc/hadoop/hadoop-env.sh

设置 vim 带行号
:set nu!  #带行号

# 在 27 行修改
export JAVA_HOME=/usr/local/src/jdk1.7.0_55

(2)修改 core-site.xml

vim /usr/local/src/hadoop-2.2.0/etc/hadoop/core-site.xml

在 <configuration> 标签对中添加如下信息
    <!– 指定 HDFS 老大(namenode)的通信地址 –>
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://hucc01:9000</value>
    </property>
    <!– 指定 hadoop 运行时产生文件的存储路径 –>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/local/src/hadoop-2.2.0/tmp</value>
    </property>

(3)修改 hdfs-site.xml
vim /usr/local/src/hadoop-2.2.0/etc/hadoop/hdfs-site.xml

在 <configuration> 标签对中添加如下信息
    <!– 设置 hdfs 副本数量 –>
    <property>
    <name>dfs.replication</name>
        <value>1</value>
    </property>

(4)修改 mapred-site.xml
在 /usr/local/src/hadoop-2.2.0/etc/hadoop/ 目录下并没有 mapred-site.xml 文件,但是有一个 mapred-site.xml.template 文件,因此需要将 mapred-site.xml.template 重命名成 mapred-site.xml。
cd /usr/local/src/hadoop-2.2.0/etc/hadoop/
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml

在 <configuration> 标签对中添加如下信息
    <!– 通知框架 MR 使用 YARN –>
    <property>
        <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>

(5)修改 yarn-site.xml
vim yarn-site.xml

在 <configuration> 标签对中添加如下信息
    <!– reducer 取数据的方式是 mapreduce_shuffle –>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

4、将 hadoop 添加到环境变量

vim /etc/profile

# 修改 profile 的内容

export JAVA_HOME=/usr/local/src/jdk1.7.0_55
export HADOOP_HOME=/usr/local/src/hadoop-2.2.0
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

# 刷新配置
source /etc/profile

5、格式化 HDFS(namenode)
第一次使用时要格式化
hadoop namenode -format

6、启动 hadoop
cd /usr/local/src/hadoop-2.2.0/sbin/
 
sh start-all.sh

启动过程中需要多次输入 yes 和你 linux 登陆口令

7、验证 hadoop 是否安装成功
jps

Hadoop2.2.0 伪分布式搭建

如果出现这样的界面,那么恭喜你,你的 hadoop 伪分布式搭建成功了!
也可以用浏览器访问:http://192.168.85.11:50070  (HDFS 管理界面)                                                http://192.168.85.1:8088(MR 管理界面)
如果嫌输入 ip 麻烦,也可以修改 windows 的 hosts 配置文件
在这个文件中添加 linux 主机名和 IP 的映射关系
在 C:\Windows\System32\drivers\etc\hosts 文件中添加
192.168.85.11  hucc01

之后可以用浏览器访问:http://hucc01:50070  (HDFS 管理界面)
                      http://hucc01:8088(MR 管理界面)

四、配置 ssh 免登陆
1、生成 ssh 免登陆密钥
# 进入根目录

# 查看隐藏文件

ls -la

你会发现有一个.ssh 的文件夹

# 进入.ssh 文件夹
cd .ssh

# 生成秘钥,需要按 4 次回车
ssh-keygen -t rsa

执行完这个命令后,会生成两个文件 id_rsa(私钥)、id_rsa.pub(公钥)
2、将公钥拷贝到要免登陆的机器上
# 将公钥拷贝到需要免登陆的机器上(需要输入一次密码)
ssh-copy-id -i 192.168.85.11

3、测试 ssh 免登陆是否成功

# 关闭 hadoop

cd /usr/local/src/hadoop-2.2.0/sbin/
sh stop-all.sh

本来关闭 hadoop 也需要密码的,如果你没有输入密码就关闭成功了,那么,恭喜你,你的 ssh 免登陆也配置成功了!
如果不放心,你还可以尝试再次启动 hadoop,你会发现还是不需要密码就启动成功了。
五、总结
总的来说,感觉 hadoop 的伪分布式搭建并不算难,难的是不知道如何入门,如何下手,大数据总给我一种很神秘的感觉,就让我通过博客的方式将这神秘的面纱一层一层的揭开把。fighting!

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

一、准备 Linux 环境
1、更改 VMware 适配器设置
    由于是在单机环境下进行学习的,因此选择适配器模式是 host-only 模式,如果想要联网,可以选择桥接模式,配置的方式差不多。

    点击 VMware 快捷方式,右键打开文件所在位置 -> 双击 vmnetcfg.exe -> VMnet1 host-only -> 修改 subnet ip 设置网段:192.168.85.0 子网掩码:255.255.255.0 -> apply -> ok
   
    回到 windows –> 打开网络和共享中心 -> 更改适配器设置 -> 右键 VMnet1 -> 属性 -> 双击 IPv4 -> 设置 windows 的 IP:192.168.85.100 子网掩码:255.255.255.0 -> 点击确定
   
    在虚拟软件上 –My Computer -> 选中虚拟机 -> 右键 -> settings -> network adapter -> host only -> ok
2、修改主机名
在 linux 命令窗口敲入以下命令   
vim /etc/sysconfig/network

修改主机名(带 #号的为必须修改项)
NETWORKING=yes
HOSTNAME=hucc01    ###

3、修改 ip
修改 ip 有三种方式:

第一种:通过 Linux 图形界面进行修改(比较简单)
进入 Linux 图形界面 -> 右键点击右上方的两个小电脑 -> 点击 Edit connections -> 选中当前网络 System eth0 -> 点击 edit 按钮 -> 选择 IPv4 -> method 选择为 manual -> 点击 add 按钮 -> 添加 IP:192.168.85.11 子网掩码:255.255.255.0 网关:192.168.85.1 -> apply

第二种:通过 Linux 命令窗口进行修改(难度适中)
进入 linux 命令窗口,输入以下命令

setup

Hadoop2.2.0 伪分布式搭建

选择网络配置 -> 设备配置 -> etho -> 配置好相对应静态 IP、子网掩码、默认网关 IP 等信息即可。

第三种:修改配置文件方式(程序猿专用,一般人不会)(带 #号的为必须修改项)
在 linux 命令窗口敲入以下命令   
vim /etc/sysconfig/network

修改 ip 信息
DEVICE=”eth0″
BOOTPROTO=”static”          ###
HWADDR=”00:0C:29:3C:BF:E7″
IPV6INIT=”yes”
NM_CONTROLLED=”yes”
ONBOOT=”yes”
TYPE=”Ethernet”
UUID=”ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c”
IPADDR=”192.168.85.11″      ###
NETMASK=”255.255.255.0″      ###
GATEWAY=”192.168.85.1″        ###

4、修改主机名与 IP 的映射关系
在 linux 命令窗口敲入以下命令   
vim /etc/hosts

修改映射关系,添加如下内容
192.168.1.44    hucc01

5、关闭防火墙
# 查看防火墙状态
service iptables status

# 关闭防火墙
service iptables stop

# 查看防火墙开机启动状态
chkconfig iptables –list

# 关闭防火墙开机启动
chkconfig iptables off

6、重启 linux

reboot

————————————– 分割线 ————————————–

Ubuntu14.04 下 Hadoop2.4.1 单机 / 伪分布式安装配置教程  http://www.linuxidc.com/Linux/2015-02/113487.htm

CentOS 安装和配置 Hadoop2.2.0  http://www.linuxidc.com/Linux/2014-01/94685.htm

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

————————————– 分割线 ————————————–

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2015-02/114050p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计7672字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7984149
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定!

星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定!

星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定! 前言 作为 NAS 玩家,你是否总被这些...
升级自动部署更新SSL证书系统、申请godaddy的APIKEY

升级自动部署更新SSL证书系统、申请godaddy的APIKEY

升级自动部署更新 SSL 证书系统、申请 godaddy 的 APIKEY 公司之前花钱购买的 ssl 证书快...
免费领取huggingface的2核16G云服务器,超简单教程

免费领取huggingface的2核16G云服务器,超简单教程

免费领取 huggingface 的 2 核 16G 云服务器,超简单教程 前言 HuggingFace.co...
2025年11月28日-Cloudflare史诗级事故:一次配置失误,引爆全球宕机

2025年11月28日-Cloudflare史诗级事故:一次配置失误,引爆全球宕机

2025 年 11 月 28 日 -Cloudflare 史诗级事故: 一次配置失误,引爆全球宕机 前言 继今...
亚马逊云崩完,微软云崩!当全球第二大云“摔了一跤”:Azure 宕机背后的配置风险与警示

亚马逊云崩完,微软云崩!当全球第二大云“摔了一跤”:Azure 宕机背后的配置风险与警示

亚马逊云崩完,微软云崩!当全球第二大云“摔了一跤”:Azure 宕机背后的配置风险与警示 首先来回顾一下 10...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞定

多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞定

多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞...
安装并使用谷歌AI编程工具Antigravity(亲测有效)

安装并使用谷歌AI编程工具Antigravity(亲测有效)

  安装并使用谷歌 AI 编程工具 Antigravity(亲测有效) 引言 Antigravity...
国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号 AI 知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率 大家好,我是星哥,...
浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍

浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍

浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍 前言 在 AI 自动化快速发展的当下,浏览器早已不再只是...
300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

  300 元就能买到的 ” 小钢炮 ”?惠普 7L 四盘位小主机解析 最近...