阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop Ubuntu下的安装

182次阅读
没有评论

共计 6007 个字符,预计需要花费 16 分钟才能阅读完成。

这个是在自己笔记本上的实验版本,在不熟悉的情况还是先考虑在自己的电脑上安装一个试验版本,然后再考虑安装部署生产环境中的机器。首先自己的电脑上需要安装一个虚拟机 VMWare WorkStation, 安装好了之后,再在此虚拟机上安装 Ubutun 操作系统, 我这里装的是 Ubutun 11.10, 可以通过 lsb_release -a 命令查看,如果没有这个命令的话可以用下面的命令安装一下 sudo apt-get install lsb。
 
    1.  在此操作系统上新建一个账号 Hadoop.
 
tinyfun@Ubuntu:/home$ sudo addgroup hadoop
Adding group `hadoop’ (GID 1001) …
Done.
 
然后增加 hadoop 用户:sudo adduser -ingroup hadoop hadoop 之后通过 sudo gedit /etc/sudoers 命令在 sudoers 文件中添加 hadoop ALL=(ALL:ALL)  ALL 给 hadoop 用户 root 权限。机器默认的名字是 ubuntu, 如果需要修改的话,就用 sudo gedit /etc/hostname.
 
    2. 建立 ssh 无密码登录
 
    首先 sudo  apt-get install ssh openssh-server 服务,之后创建 ssh-key, 使用命令 ssh-keygen -t rsa -P “”
 
 回车后会在~/.ssh/ 下生成两个文件:id_rsa 和 id_rsa.pub 这两个文件, 进入~/.ssh/ 目录下,将 id_rsa.pub 追加到
 
authorized_keys 授权文件中,开始是没有 authorized_keys 文件的, 使用命令:cat id_ras.pub >> authorized_keys 中
 
接着使用 ssh localhost 就可以成功登录了。
 
    3. 安装 hadoop
 
    在 hadoop 账户根目录创建一个文件夹 hadoop,使用
 
wget http://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-1.1.1/hadoop-1.1.1-bin.tar.gz 下载最新版本的 hadoop, 现在是 1.1.1 的稳定版本。解压到当前文件夹 tar -xvf hadoop-1.1.1-bin.tar.gz 然后用命令 mv
 
hadoop-1.1.1 hadoop, 然后开始配置 hadoop,有四个文件需要配置的,这里采用的都是最简单的配置,很多参数都是采用 hadoop 系统自己默认的,这四个文件是 conf 目录下的,hadoop-env.sh core-site.xml hdfs-site.xml
 
mapred-site.xml.
 
    1) 修改 hadoop-env.sh
 
    sudo gedit hadoop-env.sh, 将其中的一行修改为 export JAVA_HOME=/usr/lib/jvm/java-6-sun-1.6.0.24
 
也就是配置 Java 虚拟机的运行目录,这个目录是你机器上安装 java 的位置。
 
    2)修改 core-site.xml
 
<configuration>
    <property>
 <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/hadoop/hadoop/tmp</value>
    </property>
    <property>
 <name>fs.default.name</name>
  <value>hdfs://localhost:9000</value>
    </property>
</configuration>
 
 3) 修改 hdfs-site.xml
 
<configuration>
      <property>
 <name>dfs.replication</name>
 <value>1</value>
      </property>
</configuration>
 
 4)修改 mapred-site.xml
 
<configuration>
      <property>
  <name>mapred.job.tracker</name>
          <value>localhost:9001</value>      </property>
</configuration> 

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2013-10/92024p2.htm

相关阅读

Hadoop 2.0 安装向导 (0.23.x) http://www.linuxidc.com/Linux/2012-05/61463.htm

Hadoop 1.2.1 单节点安装 (Single Node Setup) 步骤 http://www.linuxidc.com/Linux/2013-08/89377.htm

在 CentOS 上安装 Hadoop http://www.linuxidc.com/Linux/2013-08/88600.htm

Ubuntu 12.04 安装 Hadoop http://www.linuxidc.com/Linux/2013-08/88187.htm

CentOS 6.3 x86_64 安装与配置 Hadoop-1.0 http://www.linuxidc.com/Linux/2013-07/87959.htm

Hadoop 入门 –Hadoop2 伪分布式安装 http://www.linuxidc.com/Linux/2013-06/86403.htm

4 运行 Hadoop

进入 hadoop 目录下,格式化 hdfs 文件系统, bin/hadoop namenode -format, 格式化完成之后

启动 hadoop,通过命令 bin/start-dfs.sh bin/start-mapred.sh, 启动完成之后,通过 jps 命令查看

进程。如果进程中包含下面这五个进程就表明安装成功了。

3453 TaskTracker
7753 Jps
3218 JobTracker
2572 NameNode
3073 SecondaryNameNode
2843 DataNode

5. 运行一个简单的 wordcount 例子

准备测试数据,我们可以简单的使用 echo 命令来生成两个测试文件,新建一个目录 testdata, 在此目录下

echo “hello world bye world” > file1.txt
echo “hello hadoop goodbye hadoop” > file2.txt

将这两个文件写入到 hdfs 文件系统中,bin/hadoop fs -put ./testdata/ input 使用命令 hadoop fs -lsr

就可以看到这两个文件已经在 hadoop 的 hdfs 文件系统当中去了。之后使用命令 bin/hadoop jar hadoop-examples-1.1.1.jar

wordcount input output 来运行 wordcount 的例子,我们会看到如下的执行过程:

12/12/10 22:31:15 WARN conf.Configuration: mapred.used.genericoptionsparser is deprecated. Instead, use mapreduce.client.genericoptionsparser.used
12/12/10 22:31:15 INFO input.FileInputFormat: Total input paths to process : 2
12/12/10 22:31:16 INFO mapreduce.JobSubmitter: number of splits:2
12/12/10 22:31:18 INFO mapreduce.Job: Running job: job_201212102055_0001
12/12/10 22:31:19 INFO mapreduce.Job: map 0% reduce 0%
12/12/10 22:32:43 INFO mapreduce.Job: map 100% reduce 0%
12/12/10 22:33:30 INFO mapreduce.Job: map 100% reduce 100%
12/12/10 22:33:54 INFO mapreduce.Job: Job complete: job_201212102055_0001
12/12/10 22:33:54 INFO mapreduce.Job: Counters: 36
FileInputFormatCounters

表明我们的程序已经成功执行完成了,之后我们可以通过命令 bin/hadoop fs -cat output/* 可以看到运行结果:

bye 1
goodbye 1
hadoop 2
hello 2
world 2

当然我们也可以通过命令 bin/hadoop fs -get output output 导出到本地的文件系统中来查看。

更多 Ubuntu 相关信息见Ubuntu 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=2

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

这个是在自己笔记本上的实验版本,在不熟悉的情况还是先考虑在自己的电脑上安装一个试验版本,然后再考虑安装部署生产环境中的机器。首先自己的电脑上需要安装一个虚拟机 VMWare WorkStation, 安装好了之后,再在此虚拟机上安装 Ubutun 操作系统, 我这里装的是 Ubutun 11.10, 可以通过 lsb_release -a 命令查看,如果没有这个命令的话可以用下面的命令安装一下 sudo apt-get install lsb。
 
    1.  在此操作系统上新建一个账号 Hadoop.
 
tinyfun@Ubuntu:/home$ sudo addgroup hadoop
Adding group `hadoop’ (GID 1001) …
Done.
 
然后增加 hadoop 用户:sudo adduser -ingroup hadoop hadoop 之后通过 sudo gedit /etc/sudoers 命令在 sudoers 文件中添加 hadoop ALL=(ALL:ALL)  ALL 给 hadoop 用户 root 权限。机器默认的名字是 ubuntu, 如果需要修改的话,就用 sudo gedit /etc/hostname.
 
    2. 建立 ssh 无密码登录
 
    首先 sudo  apt-get install ssh openssh-server 服务,之后创建 ssh-key, 使用命令 ssh-keygen -t rsa -P “”
 
 回车后会在~/.ssh/ 下生成两个文件:id_rsa 和 id_rsa.pub 这两个文件, 进入~/.ssh/ 目录下,将 id_rsa.pub 追加到
 
authorized_keys 授权文件中,开始是没有 authorized_keys 文件的, 使用命令:cat id_ras.pub >> authorized_keys 中
 
接着使用 ssh localhost 就可以成功登录了。
 
    3. 安装 hadoop
 
    在 hadoop 账户根目录创建一个文件夹 hadoop,使用
 
wget http://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-1.1.1/hadoop-1.1.1-bin.tar.gz 下载最新版本的 hadoop, 现在是 1.1.1 的稳定版本。解压到当前文件夹 tar -xvf hadoop-1.1.1-bin.tar.gz 然后用命令 mv
 
hadoop-1.1.1 hadoop, 然后开始配置 hadoop,有四个文件需要配置的,这里采用的都是最简单的配置,很多参数都是采用 hadoop 系统自己默认的,这四个文件是 conf 目录下的,hadoop-env.sh core-site.xml hdfs-site.xml
 
mapred-site.xml.
 
    1) 修改 hadoop-env.sh
 
    sudo gedit hadoop-env.sh, 将其中的一行修改为 export JAVA_HOME=/usr/lib/jvm/java-6-sun-1.6.0.24
 
也就是配置 Java 虚拟机的运行目录,这个目录是你机器上安装 java 的位置。
 
    2)修改 core-site.xml
 
<configuration>
    <property>
 <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/hadoop/hadoop/tmp</value>
    </property>
    <property>
 <name>fs.default.name</name>
  <value>hdfs://localhost:9000</value>
    </property>
</configuration>
 
 3) 修改 hdfs-site.xml
 
<configuration>
      <property>
 <name>dfs.replication</name>
 <value>1</value>
      </property>
</configuration>
 
 4)修改 mapred-site.xml
 
<configuration>
      <property>
  <name>mapred.job.tracker</name>
          <value>localhost:9001</value>      </property>
</configuration> 

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2013-10/92024p2.htm

相关阅读

Hadoop 2.0 安装向导 (0.23.x) http://www.linuxidc.com/Linux/2012-05/61463.htm

Hadoop 1.2.1 单节点安装 (Single Node Setup) 步骤 http://www.linuxidc.com/Linux/2013-08/89377.htm

在 CentOS 上安装 Hadoop http://www.linuxidc.com/Linux/2013-08/88600.htm

Ubuntu 12.04 安装 Hadoop http://www.linuxidc.com/Linux/2013-08/88187.htm

CentOS 6.3 x86_64 安装与配置 Hadoop-1.0 http://www.linuxidc.com/Linux/2013-07/87959.htm

Hadoop 入门 –Hadoop2 伪分布式安装 http://www.linuxidc.com/Linux/2013-06/86403.htm

正文完
星哥说事-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计6007字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中