阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Ubuntu下Hadoop全分布安装

452次阅读
没有评论

共计 6674 个字符,预计需要花费 17 分钟才能阅读完成。

个人历时 3 天遭遇各种问题才安装好,虽然网上很多教程,但是还是自己写一个总结一下

1.实验环境

Ubuntu12.04

Hadoop1.2.1

Java1.6.0_13

 

2.实验准备

1. 在所有机器上安装 ubuntu12.04,过程不赘述。

在安装过程中命名所有的用户名是 hadoop,机器名分别为 minglaihan,node1,node2,其中 minglaihan 作为主节点,其他两个是从节点。

2. 在所有机器上执行:

sudo gedit etc/hosts

添加如下地址:

192.168.1.104 minglaihan

192.168.1.109 node1

192.168.1.110 node2

3. 保证你的用户拥有 root 级别

用 gedit 或者 vim,

sudo gedit etc/sudoers

在 root  ALL=(ALL:ALL)  ALL 下添加 hadoop  ALL=(ALL:ALL)  ALL。

 

3.安装过程

安装 java
三台机器上都执行:

指令:cd ~/java

unzip jdk-6u13-linux-i586.zip

chmod +x jdk-6u13-linux-i586.bin

sudo ./ jdk-6u13-linux-i586.bin

接下来按 Enter 以及 yes 就可以了

Java 安装好之后,在 bash.bashrc 里添加 java 路径

sudo gedit etc/bash.bashrc

添加:export JAVA_HOME=/home/hadoop/java/jdk1.6.0_13

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin

然后就可以查看 java –version。

 

安装 ssh
三台机器上都执行:

sudo apt-get install ssh

安装完成后执行 ssh localhost 即可登录自身的 ssh,

exit 退出

 

配置 ssh 无密码登陆
Ssh 的一个重要特点就是可以远程访问,接下来我们实现相互访问不需要密码。

在所有机器上执行:

cd ~/.ssh

ssh-keygen -t rsa -P“”之后一直按回车,然后可以看见提示生成密钥。

将 id_rsa.pub 追加到 authorized_keys 授权文件中

cat id_rsa.pub >> authorized_keys

然后在主节点 minglaihan 上执行:

进入 /home/hadoop/.ssh 目录中,复制 authorized_keys 到 node1 的.ssh 文件夹中

scp authorized_keys hadoop@node1:/home/hadoop/.ssh

scp authorized_keys hadoop@node2:/home/hadoop/.ssh

接下来使用 ssh node1 和 ssh node2 就可以无密码访问了

 

安装 hadoop
首先在所有机器上执行解压缩操作

tar zxvf hadoop-1.2.1.tar.gz

然后开始修改 hadoop/conf 里面的配置文件

①  core-sie.xml

<configuration>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hadoop/hadoop-1.2.1/tmp</value>

<description>A base for other temporary directories.</description>

</property>

 

<property>

<name>fs.default.name</name>

<value>hdfs://minglaihan:9000</value>

<description>

The name of the default file system. A URI whose scheme and authority determine the FileSystem implementation. The uri’s scheme determines the config property (fs.SCHEME.impl) naming the FileSystem implementation class. The uri’s authority is used to determine the host, port, etc. for a filesystem.

</description>

</property>

 

</configuration>

②  hadoop-env.sh

添加:export JAVA_HOME=/home/hadoop/java/jdk1.6.0_13

接下来请看第 2 页精彩内容:http://www.linuxidc.com/Linux/2013-10/91991p2.htm

相关阅读

Hadoop 2.0 安装向导 (0.23.x)  http://www.linuxidc.com/Linux/2012-05/61463.htm

Hadoop 1.2.1 单节点安装 (Single Node Setup) 步骤  http://www.linuxidc.com/Linux/2013-08/89377.htm

在 CentOS 上安装 Hadoop  http://www.linuxidc.com/Linux/2013-08/88600.htm

Ubuntu 12.04 安装 Hadoop  http://www.linuxidc.com/Linux/2013-08/88187.htm

CentOS 6.3 x86_64 安装与配置 Hadoop-1.0  http://www.linuxidc.com/Linux/2013-07/87959.htm

Hadoop 入门 –Hadoop2 伪分布式安装  http://www.linuxidc.com/Linux/2013-06/86403.htm

③ hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>3</value>

<description>

Default block replication. The actual number of replications can be specified when the file is created. The default is used if replication is not specified in create time.

</description>

</property>

<property>

<name>dfs.name.dir</name>

<value>/home/Hadoop/hadoop-1.2.1/hdfs/name</value>

<description>

</description>

</property>

<property>

<name>dfs.data.dir</name>

<value>/home/hadoop/hadoop-1.2.1/hdfs/data</value>

<description>

</description>

</property>

</configuration>

④ mapred-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>3</value>

<description>

Default block replication. The actual number of replications can be specified when the file is created. The default is used if replication is not specified in create time.

</description>

</property>

<property>

<name>dfs.name.dir</name>

<value>/home/hadoop/hadoop-1.2.1/hdfs/name</value>

<description>

</description>

</property>

<property>

<name>dfs.data.dir</name>

<value>/home/hadoop/hadoop-1.2.1/hdfs/data</value>

<description>

</description>

</property>

</configuration>

⑤ master

minglaihan

⑥ slaves

node1

node2

启动 hadoop
cd ~/hadoop-1.2.1

首先格式化 namenode

bin/hadoop namenode –format

然后启动所有节点

bin/start-all.sh

用 jps 查看当前 hadoop 启动的进程

jps

如果如果有 Namenode,SecondaryNameNode,TaskTracker,DataNode,JobTracker,Jps 六个进程表示已经启动成功。

当然我在这一步卡了很久,始终有各种各样的问题,在这个过程中也会学到很多,所以遇到有 namenode 或者 datanode 没启动,主要的处理方法就是清除 tmp 和 logs 文件夹,然后每次格式化后查看 logs,根据报错查找问题。

stop-all.sh 停止所有进程

此时在浏览器中查看 minglaihan:50030, 可以看到 hadoop 的 mapreduce 管理界面

 

wordcount 测试
在 home 主目录下创建一个装有无数单词的文本,例如 test.txt

将 test.txt 传输到 hdfs 系统的 input 里,

bin/hadoop fs -copyFromLocal home/hadoop/test.txt input

在 hadoop 文件夹下执行:

hadoop jar hadoop-examples-1.2.1.jar wordcount input output

将输出结果传到 output 里

此时 mapreduce 会显示执行信息,执行完毕后,用指令查看

hadoop fs –cat output/part-r-00000

显示计算单词结果

至此,hadoop 环境基本安装,期间遇到各种问题不要放弃。。。

更多 Ubuntu 相关信息见Ubuntu 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=2

 

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

 

个人历时 3 天遭遇各种问题才安装好,虽然网上很多教程,但是还是自己写一个总结一下

1.实验环境

Ubuntu12.04

Hadoop1.2.1

Java1.6.0_13

 

2.实验准备

1. 在所有机器上安装 ubuntu12.04,过程不赘述。

在安装过程中命名所有的用户名是 hadoop,机器名分别为 minglaihan,node1,node2,其中 minglaihan 作为主节点,其他两个是从节点。

2. 在所有机器上执行:

sudo gedit etc/hosts

添加如下地址:

192.168.1.104 minglaihan

192.168.1.109 node1

192.168.1.110 node2

3. 保证你的用户拥有 root 级别

用 gedit 或者 vim,

sudo gedit etc/sudoers

在 root  ALL=(ALL:ALL)  ALL 下添加 hadoop  ALL=(ALL:ALL)  ALL。

 

3.安装过程

安装 java
三台机器上都执行:

指令:cd ~/java

unzip jdk-6u13-linux-i586.zip

chmod +x jdk-6u13-linux-i586.bin

sudo ./ jdk-6u13-linux-i586.bin

接下来按 Enter 以及 yes 就可以了

Java 安装好之后,在 bash.bashrc 里添加 java 路径

sudo gedit etc/bash.bashrc

添加:export JAVA_HOME=/home/hadoop/java/jdk1.6.0_13

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin

然后就可以查看 java –version。

 

安装 ssh
三台机器上都执行:

sudo apt-get install ssh

安装完成后执行 ssh localhost 即可登录自身的 ssh,

exit 退出

 

配置 ssh 无密码登陆
Ssh 的一个重要特点就是可以远程访问,接下来我们实现相互访问不需要密码。

在所有机器上执行:

cd ~/.ssh

ssh-keygen -t rsa -P“”之后一直按回车,然后可以看见提示生成密钥。

将 id_rsa.pub 追加到 authorized_keys 授权文件中

cat id_rsa.pub >> authorized_keys

然后在主节点 minglaihan 上执行:

进入 /home/hadoop/.ssh 目录中,复制 authorized_keys 到 node1 的.ssh 文件夹中

scp authorized_keys hadoop@node1:/home/hadoop/.ssh

scp authorized_keys hadoop@node2:/home/hadoop/.ssh

接下来使用 ssh node1 和 ssh node2 就可以无密码访问了

 

安装 hadoop
首先在所有机器上执行解压缩操作

tar zxvf hadoop-1.2.1.tar.gz

然后开始修改 hadoop/conf 里面的配置文件

①  core-sie.xml

<configuration>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hadoop/hadoop-1.2.1/tmp</value>

<description>A base for other temporary directories.</description>

</property>

 

<property>

<name>fs.default.name</name>

<value>hdfs://minglaihan:9000</value>

<description>

The name of the default file system. A URI whose scheme and authority determine the FileSystem implementation. The uri’s scheme determines the config property (fs.SCHEME.impl) naming the FileSystem implementation class. The uri’s authority is used to determine the host, port, etc. for a filesystem.

</description>

</property>

 

</configuration>

②  hadoop-env.sh

添加:export JAVA_HOME=/home/hadoop/java/jdk1.6.0_13

接下来请看第 2 页精彩内容:http://www.linuxidc.com/Linux/2013-10/91991p2.htm

相关阅读

Hadoop 2.0 安装向导 (0.23.x)  http://www.linuxidc.com/Linux/2012-05/61463.htm

Hadoop 1.2.1 单节点安装 (Single Node Setup) 步骤  http://www.linuxidc.com/Linux/2013-08/89377.htm

在 CentOS 上安装 Hadoop  http://www.linuxidc.com/Linux/2013-08/88600.htm

Ubuntu 12.04 安装 Hadoop  http://www.linuxidc.com/Linux/2013-08/88187.htm

CentOS 6.3 x86_64 安装与配置 Hadoop-1.0  http://www.linuxidc.com/Linux/2013-07/87959.htm

Hadoop 入门 –Hadoop2 伪分布式安装  http://www.linuxidc.com/Linux/2013-06/86403.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计6674字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19350
评论数
4
阅读量
7963395
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
星哥带你玩飞牛NAS-16:飞牛云NAS换桌面,fndesk图标管理神器上线!

星哥带你玩飞牛NAS-16:飞牛云NAS换桌面,fndesk图标管理神器上线!

  星哥带你玩飞牛 NAS-16:飞牛云 NAS 换桌面,fndesk 图标管理神器上线! 引言 哈...
每天一个好玩的网站-手机博物馆-CHAZ 3D Experience

每天一个好玩的网站-手机博物馆-CHAZ 3D Experience

每天一个好玩的网站 - 手机博物馆 -CHAZ 3D Experience 一句话介绍:一个用 3D 方式重温...
你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你 为什么要用宝塔跑分? 宝塔跑分其实就是对 CPU、内存、磁盘、IO 做...
Prometheus:监控系统的部署与指标收集

Prometheus:监控系统的部署与指标收集

Prometheus:监控系统的部署与指标收集 在云原生体系中,Prometheus 已成为最主流的监控与报警...
CSDN,你是老太太喝粥——无齿下流!

CSDN,你是老太太喝粥——无齿下流!

CSDN,你是老太太喝粥——无齿下流! 大家好,我是星哥,今天才思枯竭,不写技术文章了!来吐槽一下 CSDN。...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
星哥带你玩飞牛NAS-16:不再错过公众号更新,飞牛NAS搭建RSS

星哥带你玩飞牛NAS-16:不再错过公众号更新,飞牛NAS搭建RSS

  星哥带你玩飞牛 NAS-16:不再错过公众号更新,飞牛 NAS 搭建 RSS 对于经常关注多个微...
国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号 AI 知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率 大家好,我是星哥,...
4盘位、4K输出、J3455、遥控,NAS硬件入门性价比之王

4盘位、4K输出、J3455、遥控,NAS硬件入门性价比之王

  4 盘位、4K 输出、J3455、遥控,NAS 硬件入门性价比之王 开篇 在 NAS 市场中,威...
300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

  300 元就能买到的 ” 小钢炮 ”?惠普 7L 四盘位小主机解析 最近...
星哥带你玩飞牛NAS-11:咪咕视频订阅部署全攻略

星哥带你玩飞牛NAS-11:咪咕视频订阅部署全攻略

星哥带你玩飞牛 NAS-11:咪咕视频订阅部署全攻略 前言 在家庭影音系统里,NAS 不仅是存储中心,更是内容...