阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop伪分布配置与基于Eclipse开发环境搭建

440次阅读
没有评论

共计 22585 个字符,预计需要花费 57 分钟才能阅读完成。

目录

1、开发配置环境:
2、Hadoop 服务端配置(Master 节点)
3、基于 Eclipse 的 Hadoop2.x 开发环境配置
4、运行 Hadoop 程序及查看运行日志

1、开发配置环境:

开发环境:Win7(64bit)+Eclipse(kepler service release 2)

配置环境:Ubuntu Server 14.04.1 LTS(64-bit only)

辅助工具:WinSCP + Putty

Hadoop 版本:2.5.0

Hadoop 的 Eclipse 开发插件(2.x 版本适用):http://pan.baidu.com/s/1dDBxUSh

服务器端 JDK 版本:OpenJDK7.0

以上所有工具请自行下载安装。

2、Hadoop 服务端配置(Master 节点)

最近一直在摸索 Hadoop2 的配置,因为 Hadoop2 对原有的一些框架 API 做了调整,但也还是兼容旧版本的(包括配置)。像我这种就喜欢用新的东西的人,当然要尝一下鲜了,现在网上比较少新版本的配置教程,那么下面我就来分享一下我自己的实战经验,如有不正确的地欢迎指正:)。

假设我们已经成功地安装了 Ubuntu Server、OpenJDK、SSH,如果还没有安装的话请先安装,自己网上找一下教程,这里我就说一下 SSH 的无口令登陆设置。首先通过

$ ssh localhost 

测试一下自己有没有设置好无口令登陆,如果没有设置好,系统将要求你输入密码,通过下面的设置可以实现无口令登陆,具体原理请百度谷歌:

$ ssh-keygen -t dsa -P ” -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

其次是 Hadoop 安装(假设已经安装好 OpenJDK 以及配置好了环境变量),到 Hadoop 官网下载一个 Hadoop2.5.0 版本的下来,好像大概有 100 多 M 的 tar.gz 包,下载 下来后自行解压,我的是放在 /usr/mywind 下面,Hadoop 主目录完整路径是 /usr/mywind/hadoop,这个路径根据你个人喜好放吧。

————————————– 分割线 ————————————–

CentOS 6.4 下 Hadoop 0.20.2 安装实录 http://www.linuxidc.com/Linux/2014-02/96864.htm

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

————————————– 分割线 ————————————–

解压完后,打开 hadoop 主目录下的 etc/hadoop/hadoop-env.sh 文件,在最后面加入下面内容:

# set to the root of your Java installation
  export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
 
# Assuming your installation directory is /usr/mywind/hadoop
export HADOOP_PREFIX=/usr/mywind/hadoop

为了方便起见,我建设把 Hadoop 的 bin 目录及 sbin 目录也加入到环境变量中,我是直接修改了 Ubuntu 的 /etc/environment 文件,内容如下:

PATH=”/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/usr/lib/jvm/java-7-openjdk-amd64/bin:/usr/mywind/hadoop/bin:/usr/mywind/hadoop/sbin”
JAVA_HOME=”/usr/lib/jvm/java-7-openjdk-amd64″
CLASSPATH=”.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar”

也可以通过修改 profile 来完成这个设置,看个人习惯咯。假如上面的设置你都完成了,可以在命令行里面测试一下 Hadoop 命令,如下图:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

假如你能看到上面的结果,恭喜你,Hadoop 安装完成了。接下来我们可以进行伪分布配置(Hadoop 可以在伪分布模式下运行单结点)。

接下来我们要配置的文件有四个,分别是 /usr/mywind/hadoop/etc/hadoop 目录下的 yarn-site.xml、mapred-site.xml、hdfs-site.xml、core-site.xml(注意:这个版本下默认没有 yarn-site.xml 文件,但有个 yarn-site.xml.properties 文件,把后缀修改成前者即可),关于 yarn 新特性可以参考官网或者这个文章 http://www.linuxidc.com/Linux/2013-09/90090.htm。

首先是 core-site.xml 配置 HDFS 地址及临时目录(默认的临时目录在重启后会删除):

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.8.184:9000</value>
        <description>same as fs.default.name</description>
    </property>
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/mywind/tmp</value>
        <description>A base for other temporary directories.</description>
    </property>
</configuration>

然后是 hdfs-site.xml 配置集群数量及其他一些可选配置比如 NameNode 目录、DataNode 目录等等:

<configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/mywind/name</value>
        <description>same as dfs.name.dir</description>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/mywind/data</value>
        <description>same as dfs.data.dir</description>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
        <description>same as old frame,recommend set the value as the cluster DataNode host numbers!</description>
    </property>
</configuration>

接着是 mapred-site.xml 配置启用 yarn 框架:

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

最后是 yarn-site.xml 配置 NodeManager:

<configuration>
 <!– Site specific YARN configuration properties –>
  <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
  </property>
</configuration>

注意,网上的旧版本教程可能会把 value 写成 mapreduce.shuffle,这个要特别注意一下的,至此我们所有的文件配置都已经完成了,下面进行 HDFS 文件系统进行格式化:

 $ hdfs namenode -format
 
然后启用 NameNode 及 DataNode 进程:

$ start-yarn.sh

然后创建 hdfs 文件目录

$ hdfs dfs -mkdir /user
$ hdfs dfs -mkdir /user/a01513
 
注意,这个 a01513 是我在 Ubuntu 上的用户名,最好保持与系统用户名一致,据说不一致会有许多权限等问题,我之前试过改成其他名字,报错,实在麻烦就改成跟系统用户名一致吧。

然后把要测试的输入文件放在文件系统中:

$ hdfs dfs -put /usr/mywind/psa input

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建
 
文件内容是 Hadoop 经典的天气例子的数据:

12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+001212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+011212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+021212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+003212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+004212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+010212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+011212345678903456
12345679867623119010123456798676231190501234567986762311901012345679867623119010123456+041212345678903456
12345679867623119010123456798676231190501234567986762311901012345679867623119010123456+008212345678903456

把文件拷贝到 HDFS 目录之后,我们可以通过浏览器查看相关的文件及一些状态:

http://192.168.8.184:50070/

这里的 IP 地址根据你实际的 Hadoop 服务器地址啦。

好吧,我们所有的 Hadoop 后台服务搭建跟数据准备都已经完成了,那么我们的 M / R 程序也要开始动手写了,不过在写当然先配置开发环境了。

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-09/106148p2.htm

3、基于 Eclipse 的 Hadoop2.x 开发环境配置

关于 JDK 及 ECLIPSE 的安装我就不再介绍了,相信能玩 Hadoop 的人对这种配置都已经再熟悉不过了,如果实在不懂建议到谷歌百度去搜索一下教程。假设你已经把 Hadoop 的 Eclipse 插件下载下来了,然后解压把 jar 文件放到 Eclipse 的 plugins 文件夹里面:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

重启 Eclipse 即可。

然后我们再安装 Hadoop 到 Win7 下,在这不再详细说明,跟安装 JDK 大同小异,在这个例子中我安装到了 E:\hadoop。

启动 Eclipse,点击菜单栏的【Windows/ 窗口】→【Preferences/ 首选项】→【Hadoop Map/Reduce】, 把 Hadoop Installation Directory 设置成开发机上的 Hadoop 主目录:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

点击 OK。

开发环境配置完成,下面我们可以新建一个测试 Hadoop 项目,右键【NEW/ 新建】→【Others、其他】,选择 Map/Reduce Project

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

输入项目名称点击【Finish/ 完成】:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

创建完成后可以看到如下目录:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

然后在 SRC 下建立下面包及类:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

以下是代码内容:

TestMapper.java

package com.my.hadoop.mapper;
 
import java.io.IOException;
 
import org.apache.commons.logging.Log;
import org.apache.commons.logging.LogFactory;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.Mapper;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.Reporter;
 
public class TestMapper extends MapReduceBase implements Mapper<LongWritable, Text, Text, IntWritable> {
        private static final int MISSING = 9999;
        private static final Log LOG = LogFactory.getLog(TestMapper.class);
 
          public void map(LongWritable key, Text value, OutputCollector<Text, IntWritable> output,Reporter reporter)
              throws IOException {
            String line = value.toString();
            String year = line.substring(15, 19);
            int airTemperature;
            if (line.charAt(87) == ‘+’) {// parseInt doesn’t like leading plus signs
              airTemperature = Integer.parseInt(line.substring(88, 92));
            } else {
              airTemperature = Integer.parseInt(line.substring(87, 92));
            }
            LOG.info(“loki:”+airTemperature);
            String quality = line.substring(92, 93);
            LOG.info(“loki2:”+quality);
            if (airTemperature != MISSING && quality.matches(“[012459]”)) {
              LOG.info(“loki3:”+quality);
              output.collect(new Text(year), new IntWritable(airTemperature));
            }
          }
 
}

TestReducer.java

package com.my.hadoop.reducer;
 
import java.io.IOException;
import java.util.Iterator;
 
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapred.Reducer;
 
public class TestReducer extends MapReduceBase implements Reducer<Text, IntWritable, Text, IntWritable> {
 
        @Override
          public void reduce(Text key, Iterator<IntWritable> values, OutputCollector<Text, IntWritable> output,Reporter reporter)
              throws IOException{
            int maxValue = Integer.MIN_VALUE;
            while (values.hasNext()) {
              maxValue = Math.max(maxValue, values.next().get());
            }
            output.collect(key, new IntWritable(maxValue));
          }
 
}

TestHadoop.java

package com.my.hadoop.test.main;
 
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.FileInputFormat;
import org.apache.hadoop.mapred.FileOutputFormat;
import org.apache.hadoop.mapred.JobClient;
import org.apache.hadoop.mapred.JobConf;
 
import com.my.hadoop.mapper.TestMapper;
import com.my.hadoop.reducer.TestReducer;
 
public class TestHadoop {
       
        public static void main(String[] args) throws Exception{
                 
                  if (args.length != 2) {
                        System.err
                            .println(“Usage: MaxTemperature <input path> <output path>”);
                        System.exit(-1);
                      }
                  JobConf job = new JobConf(TestHadoop.class);
            job.setJobName(“Max temperature”);
            FileInputFormat.addInputPath(job, new Path(args[0]));
            FileOutputFormat.setOutputPath(job, new Path(args[1]));
            job.setMapperClass(TestMapper.class);
            job.setReducerClass(TestReducer.class);
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(IntWritable.class);
            JobClient.runJob(job);
        }
       
}

为了方便对于 Hadoop 的 HDFS 文件系统操作,我们可以在 Eclipse 下面的 Map/Reduce Locations 窗口与 Hadoop 建立连接,直接右键新建 Hadoop 连接即可:

连接配置如下:

然后点击完成即可,新建完成后,我们可以在左侧目录中看到 HDFS 的文件系统目录:

这里不仅可以显示目录结构,还可以对文件及目录进行删除、新增等操作,非常方便。

当上面的工作都做好之后,就可以把这个项目导出来了(导成 jar 文件放到 Hadoop 服务器上运行):

点击完成,然后把这个 testt.jar 文件上传到 Hadoop 服务器(192.168.8.184)上,目录(其实可以放到其他目录,你自己喜欢)是:

/usr/mywind/hadoop/share/hadoop/mapreduce

如下图:

 

目录

1、开发配置环境:
2、Hadoop 服务端配置(Master 节点)
3、基于 Eclipse 的 Hadoop2.x 开发环境配置
4、运行 Hadoop 程序及查看运行日志

1、开发配置环境:

开发环境:Win7(64bit)+Eclipse(kepler service release 2)

配置环境:Ubuntu Server 14.04.1 LTS(64-bit only)

辅助工具:WinSCP + Putty

Hadoop 版本:2.5.0

Hadoop 的 Eclipse 开发插件(2.x 版本适用):http://pan.baidu.com/s/1dDBxUSh

服务器端 JDK 版本:OpenJDK7.0

以上所有工具请自行下载安装。

2、Hadoop 服务端配置(Master 节点)

最近一直在摸索 Hadoop2 的配置,因为 Hadoop2 对原有的一些框架 API 做了调整,但也还是兼容旧版本的(包括配置)。像我这种就喜欢用新的东西的人,当然要尝一下鲜了,现在网上比较少新版本的配置教程,那么下面我就来分享一下我自己的实战经验,如有不正确的地欢迎指正:)。

假设我们已经成功地安装了 Ubuntu Server、OpenJDK、SSH,如果还没有安装的话请先安装,自己网上找一下教程,这里我就说一下 SSH 的无口令登陆设置。首先通过

$ ssh localhost 

测试一下自己有没有设置好无口令登陆,如果没有设置好,系统将要求你输入密码,通过下面的设置可以实现无口令登陆,具体原理请百度谷歌:

$ ssh-keygen -t dsa -P ” -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

其次是 Hadoop 安装(假设已经安装好 OpenJDK 以及配置好了环境变量),到 Hadoop 官网下载一个 Hadoop2.5.0 版本的下来,好像大概有 100 多 M 的 tar.gz 包,下载 下来后自行解压,我的是放在 /usr/mywind 下面,Hadoop 主目录完整路径是 /usr/mywind/hadoop,这个路径根据你个人喜好放吧。

————————————– 分割线 ————————————–

CentOS 6.4 下 Hadoop 0.20.2 安装实录 http://www.linuxidc.com/Linux/2014-02/96864.htm

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

————————————– 分割线 ————————————–

解压完后,打开 hadoop 主目录下的 etc/hadoop/hadoop-env.sh 文件,在最后面加入下面内容:

# set to the root of your Java installation
  export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
 
# Assuming your installation directory is /usr/mywind/hadoop
export HADOOP_PREFIX=/usr/mywind/hadoop

为了方便起见,我建设把 Hadoop 的 bin 目录及 sbin 目录也加入到环境变量中,我是直接修改了 Ubuntu 的 /etc/environment 文件,内容如下:

PATH=”/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/usr/lib/jvm/java-7-openjdk-amd64/bin:/usr/mywind/hadoop/bin:/usr/mywind/hadoop/sbin”
JAVA_HOME=”/usr/lib/jvm/java-7-openjdk-amd64″
CLASSPATH=”.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar”

也可以通过修改 profile 来完成这个设置,看个人习惯咯。假如上面的设置你都完成了,可以在命令行里面测试一下 Hadoop 命令,如下图:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

假如你能看到上面的结果,恭喜你,Hadoop 安装完成了。接下来我们可以进行伪分布配置(Hadoop 可以在伪分布模式下运行单结点)。

接下来我们要配置的文件有四个,分别是 /usr/mywind/hadoop/etc/hadoop 目录下的 yarn-site.xml、mapred-site.xml、hdfs-site.xml、core-site.xml(注意:这个版本下默认没有 yarn-site.xml 文件,但有个 yarn-site.xml.properties 文件,把后缀修改成前者即可),关于 yarn 新特性可以参考官网或者这个文章 http://www.linuxidc.com/Linux/2013-09/90090.htm。

首先是 core-site.xml 配置 HDFS 地址及临时目录(默认的临时目录在重启后会删除):

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.8.184:9000</value>
        <description>same as fs.default.name</description>
    </property>
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/mywind/tmp</value>
        <description>A base for other temporary directories.</description>
    </property>
</configuration>

然后是 hdfs-site.xml 配置集群数量及其他一些可选配置比如 NameNode 目录、DataNode 目录等等:

<configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/mywind/name</value>
        <description>same as dfs.name.dir</description>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/mywind/data</value>
        <description>same as dfs.data.dir</description>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
        <description>same as old frame,recommend set the value as the cluster DataNode host numbers!</description>
    </property>
</configuration>

接着是 mapred-site.xml 配置启用 yarn 框架:

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

最后是 yarn-site.xml 配置 NodeManager:

<configuration>
 <!– Site specific YARN configuration properties –>
  <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
  </property>
</configuration>

注意,网上的旧版本教程可能会把 value 写成 mapreduce.shuffle,这个要特别注意一下的,至此我们所有的文件配置都已经完成了,下面进行 HDFS 文件系统进行格式化:

 $ hdfs namenode -format
 
然后启用 NameNode 及 DataNode 进程:

$ start-yarn.sh

然后创建 hdfs 文件目录

$ hdfs dfs -mkdir /user
$ hdfs dfs -mkdir /user/a01513
 
注意,这个 a01513 是我在 Ubuntu 上的用户名,最好保持与系统用户名一致,据说不一致会有许多权限等问题,我之前试过改成其他名字,报错,实在麻烦就改成跟系统用户名一致吧。

然后把要测试的输入文件放在文件系统中:

$ hdfs dfs -put /usr/mywind/psa input

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建
 
文件内容是 Hadoop 经典的天气例子的数据:

12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+001212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+011212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+021212345678903456
12345679867623119010123456798676231190101234567986762311901012345679867623119010123456+003212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+004212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+010212345678903456
12345679867623119010123456798676231190201234567986762311901012345679867623119010123456+011212345678903456
12345679867623119010123456798676231190501234567986762311901012345679867623119010123456+041212345678903456
12345679867623119010123456798676231190501234567986762311901012345679867623119010123456+008212345678903456

把文件拷贝到 HDFS 目录之后,我们可以通过浏览器查看相关的文件及一些状态:

http://192.168.8.184:50070/

这里的 IP 地址根据你实际的 Hadoop 服务器地址啦。

好吧,我们所有的 Hadoop 后台服务搭建跟数据准备都已经完成了,那么我们的 M / R 程序也要开始动手写了,不过在写当然先配置开发环境了。

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-09/106148p2.htm

3、基于 Eclipse 的 Hadoop2.x 开发环境配置

关于 JDK 及 ECLIPSE 的安装我就不再介绍了,相信能玩 Hadoop 的人对这种配置都已经再熟悉不过了,如果实在不懂建议到谷歌百度去搜索一下教程。假设你已经把 Hadoop 的 Eclipse 插件下载下来了,然后解压把 jar 文件放到 Eclipse 的 plugins 文件夹里面:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

重启 Eclipse 即可。

然后我们再安装 Hadoop 到 Win7 下,在这不再详细说明,跟安装 JDK 大同小异,在这个例子中我安装到了 E:\hadoop。

启动 Eclipse,点击菜单栏的【Windows/ 窗口】→【Preferences/ 首选项】→【Hadoop Map/Reduce】, 把 Hadoop Installation Directory 设置成开发机上的 Hadoop 主目录:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

点击 OK。

开发环境配置完成,下面我们可以新建一个测试 Hadoop 项目,右键【NEW/ 新建】→【Others、其他】,选择 Map/Reduce Project

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

输入项目名称点击【Finish/ 完成】:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

创建完成后可以看到如下目录:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

然后在 SRC 下建立下面包及类:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

以下是代码内容:

TestMapper.java

package com.my.hadoop.mapper;
 
import java.io.IOException;
 
import org.apache.commons.logging.Log;
import org.apache.commons.logging.LogFactory;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.Mapper;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.Reporter;
 
public class TestMapper extends MapReduceBase implements Mapper<LongWritable, Text, Text, IntWritable> {
        private static final int MISSING = 9999;
        private static final Log LOG = LogFactory.getLog(TestMapper.class);
 
          public void map(LongWritable key, Text value, OutputCollector<Text, IntWritable> output,Reporter reporter)
              throws IOException {
            String line = value.toString();
            String year = line.substring(15, 19);
            int airTemperature;
            if (line.charAt(87) == ‘+’) {// parseInt doesn’t like leading plus signs
              airTemperature = Integer.parseInt(line.substring(88, 92));
            } else {
              airTemperature = Integer.parseInt(line.substring(87, 92));
            }
            LOG.info(“loki:”+airTemperature);
            String quality = line.substring(92, 93);
            LOG.info(“loki2:”+quality);
            if (airTemperature != MISSING && quality.matches(“[012459]”)) {
              LOG.info(“loki3:”+quality);
              output.collect(new Text(year), new IntWritable(airTemperature));
            }
          }
 
}

TestReducer.java

package com.my.hadoop.reducer;
 
import java.io.IOException;
import java.util.Iterator;
 
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapred.Reducer;
 
public class TestReducer extends MapReduceBase implements Reducer<Text, IntWritable, Text, IntWritable> {
 
        @Override
          public void reduce(Text key, Iterator<IntWritable> values, OutputCollector<Text, IntWritable> output,Reporter reporter)
              throws IOException{
            int maxValue = Integer.MIN_VALUE;
            while (values.hasNext()) {
              maxValue = Math.max(maxValue, values.next().get());
            }
            output.collect(key, new IntWritable(maxValue));
          }
 
}

TestHadoop.java

package com.my.hadoop.test.main;
 
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.FileInputFormat;
import org.apache.hadoop.mapred.FileOutputFormat;
import org.apache.hadoop.mapred.JobClient;
import org.apache.hadoop.mapred.JobConf;
 
import com.my.hadoop.mapper.TestMapper;
import com.my.hadoop.reducer.TestReducer;
 
public class TestHadoop {
       
        public static void main(String[] args) throws Exception{
                 
                  if (args.length != 2) {
                        System.err
                            .println(“Usage: MaxTemperature <input path> <output path>”);
                        System.exit(-1);
                      }
                  JobConf job = new JobConf(TestHadoop.class);
            job.setJobName(“Max temperature”);
            FileInputFormat.addInputPath(job, new Path(args[0]));
            FileOutputFormat.setOutputPath(job, new Path(args[1]));
            job.setMapperClass(TestMapper.class);
            job.setReducerClass(TestReducer.class);
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(IntWritable.class);
            JobClient.runJob(job);
        }
       
}

为了方便对于 Hadoop 的 HDFS 文件系统操作,我们可以在 Eclipse 下面的 Map/Reduce Locations 窗口与 Hadoop 建立连接,直接右键新建 Hadoop 连接即可:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

连接配置如下:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

然后点击完成即可,新建完成后,我们可以在左侧目录中看到 HDFS 的文件系统目录:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

这里不仅可以显示目录结构,还可以对文件及目录进行删除、新增等操作,非常方便。

当上面的工作都做好之后,就可以把这个项目导出来了(导成 jar 文件放到 Hadoop 服务器上运行):

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

点击完成,然后把这个 testt.jar 文件上传到 Hadoop 服务器(192.168.8.184)上,目录(其实可以放到其他目录,你自己喜欢)是:

/usr/mywind/hadoop/share/hadoop/mapreduce

如下图:

4、运行 Hadoop 程序及查看运行日志

当上面的工作准备好了之后,我们运行自己写的 Hadoop 程序很简单:

$ hadoop  jar  /usr/mywind/hadoop/share/hadoop/mapreduce/testt.jar com.my.hadoop.test.main.TestHadoop  input  output

注意这是 output 文件夹名称不能重复哦,假如你执行了一次,在 HDFS 文件系统下面会自动生成一个 output 文件夹,第二次运行时,要么把 output 文件夹先删除($ hdfs dfs -rmr /user/a01513/output),要么把命令中的 output 改成其他名称如 output1、output2 等等。

如果看到以下输出结果,证明你的运行成功了:

a01513@hadoop :~$ hadoop jar /usr/mywind/hadoop/share/hadoop/mapreduce/testt.jar                                                                              com.my.hadoop.test.main.TestHadoop input output
14/09/02 11:14:03 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0                                                                            :8032
14/09/02 11:14:04 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0                                                                            :8032
14/09/02 11:14:04 WARN mapreduce.JobSubmitter: Hadoop command-line option parsin                                                                            g not performed. Implement the Tool interface and execute your application with                                                                              ToolRunner to remedy this.
14/09/02 11:14:04 INFO mapred.FileInputFormat: Total input paths to process : 1
14/09/02 11:14:04 INFO mapreduce.JobSubmitter: number of splits:2
14/09/02 11:14:05 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_14                                                                            09386620927_0015
14/09/02 11:14:05 INFO impl.YarnClientImpl: Submitted application application_14                                                                            09386620927_0015
14/09/02 11:14:05 INFO mapreduce.Job: The url to track the job: http://hadoop:80                                                                            88/proxy/application_1409386620927_0015/
14/09/02 11:14:05 INFO mapreduce.Job: Running job: job_1409386620927_0015
14/09/02 11:14:12 INFO mapreduce.Job: Job job_1409386620927_0015 running in uber mode : false
14/09/02 11:14:12 INFO mapreduce.Job:  map 0% reduce 0%
14/09/02 11:14:21 INFO mapreduce.Job:  map 100% reduce 0%
14/09/02 11:14:28 INFO mapreduce.Job:  map 100% reduce 100%
14/09/02 11:14:28 INFO mapreduce.Job: Job job_1409386620927_0015 completed successfully
14/09/02 11:14:29 INFO mapreduce.Job: Counters: 49
        File System Counters
                FILE: Number of bytes read=105
                FILE: Number of bytes written=289816
                FILE: Number of read operations=0
                FILE: Number of large read operations=0
                FILE: Number of write operations=0
                HDFS: Number of bytes read=1638
                HDFS: Number of bytes written=10
                HDFS: Number of read operations=9
                HDFS: Number of large read operations=0
                HDFS: Number of write operations=2
        Job Counters
                Launched map tasks=2
                Launched reduce tasks=1
                Data-local map tasks=2
                Total time spent by all maps in occupied slots (ms)=14817
                Total time spent by all reduces in occupied slots (ms)=4500
                Total time spent by all map tasks (ms)=14817
                Total time spent by all reduce tasks (ms)=4500
                Total vcore-seconds taken by all map tasks=14817
                Total vcore-seconds taken by all reduce tasks=4500
                Total megabyte-seconds taken by all map tasks=15172608
                Total megabyte-seconds taken by all reduce tasks=4608000
        Map-Reduce Framework
                Map input records=9
                Map output records=9
                Map output bytes=81
                Map output materialized bytes=111
                Input split bytes=208
                Combine input records=0
                Combine output records=0
                Reduce input groups=1
                Reduce shuffle bytes=111
                Reduce input records=9
                Reduce output records=1
                Spilled Records=18
                Shuffled Maps =2
                Failed Shuffles=0
                Merged Map outputs=2
                GC time elapsed (ms)=115
                CPU time spent (ms)=1990
                Physical memory (bytes) snapshot=655314944
                Virtual memory (bytes) snapshot=2480295936
                Total committed heap usage (bytes)=466616320
        Shuffle Errors
                BAD_ID=0
                CONNECTION=0
                IO_ERROR=0
                WRONG_LENGTH=0
                WRONG_MAP=0
                WRONG_REDUCE=0
        File Input Format Counters
                Bytes Read=1430
        File Output Format Counters
                Bytes Written=10
a01513@hadoop :~$

我们可以到 Eclipse 查看输出的结果:

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

或者用命令行查看:

$ hdfs dfs -cat output/part-00000

Hadoop 伪分布配置与基于 Eclipse 开发环境搭建

假如你们发现运行后结果是为空的,可能到日志目录查找相应的 log.info 输出信息,log 目录在:/usr/mywind/hadoop/logs/userlogs 下面。

好了,不太喜欢打字,以上就是整个过程了,欢迎大家来学习指正。

更多 Hadoop 相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计22585字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19350
评论数
4
阅读量
7963552
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
4盘位、4K输出、J3455、遥控,NAS硬件入门性价比之王

4盘位、4K输出、J3455、遥控,NAS硬件入门性价比之王

  4 盘位、4K 输出、J3455、遥控,NAS 硬件入门性价比之王 开篇 在 NAS 市场中,威...
飞牛NAS玩转Frpc并且配置,随时随地直连你的私有云

飞牛NAS玩转Frpc并且配置,随时随地直连你的私有云

飞牛 NAS 玩转 Frpc 并且配置,随时随地直连你的私有云 大家好,我是星哥,最近在玩飞牛 NAS。 在数...
星哥带你玩飞牛NAS-16:不再错过公众号更新,飞牛NAS搭建RSS

星哥带你玩飞牛NAS-16:不再错过公众号更新,飞牛NAS搭建RSS

  星哥带你玩飞牛 NAS-16:不再错过公众号更新,飞牛 NAS 搭建 RSS 对于经常关注多个微...
安装Black群晖DSM7.2系统安装教程(在Vmware虚拟机中、实体机均可)!

安装Black群晖DSM7.2系统安装教程(在Vmware虚拟机中、实体机均可)!

安装 Black 群晖 DSM7.2 系统安装教程(在 Vmware 虚拟机中、实体机均可)! 前言 大家好,...
300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

  300 元就能买到的 ” 小钢炮 ”?惠普 7L 四盘位小主机解析 最近...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
150元打造低成本NAS小钢炮,捡一块3865U工控板

150元打造低成本NAS小钢炮,捡一块3865U工控板

150 元打造低成本 NAS 小钢炮,捡一块 3865U 工控板 一块二手的熊猫 B3 工控板 3865U,搭...
告别Notion焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁”

告别Notion焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁”

  告别 Notion 焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁” 引言 在数字笔记工...
小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比 星哥玩云,带你从小白到上云高手。今天咱们就来聊聊——什...
你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你 为什么要用宝塔跑分? 宝塔跑分其实就是对 CPU、内存、磁盘、IO 做...
星哥带你玩飞牛NAS硬件 01:捡垃圾的最爱双盘,暴风二期矿渣为何成不老神话?

星哥带你玩飞牛NAS硬件 01:捡垃圾的最爱双盘,暴风二期矿渣为何成不老神话?

星哥带你玩飞牛 NAS 硬件 01:捡垃圾的最爱双盘,暴风二期矿渣为何成不老神话? 前言 在选择 NAS 用预...