阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop2.4.0 Eclipse插件制作

387次阅读
没有评论

共计 8673 个字符,预计需要花费 22 分钟才能阅读完成。

 跌跌撞撞两天装 Hadoop2.4.0 的环境,今天终于可以尝试写点程序了,想了一想,不得其法,但有一点是肯定的,那就是需要用 eclipse,查了一上午的资料,怎么讲的都有,最后锁定了这个帖子,hadoop2x-eclipse-plugin。想用 Github 下载,但是最后下载失败,页面右侧有个 Download ZIP,用这个下载成功。下边来说说我的整个制作过程吧:

  • 想导入到 eclipse 中制作,但是导入进去之后觉得麻烦就算了,直接在 win7 64 位、JDK1.6、ANT1.8 的环境下以命令行运行
  • 依葫芦画瓢,设置 eclipse 的目录和 hadoop 的目录,在没有修改任何文件的情况下直接运行

D:\SDK\hadoop2x-eclipse-plugin-master\src\contrib\eclipse-plugin>ant jar -Dversion=2.4.0 -Declipse.home=D:\WorkTools\MyEclipse10\Common -Dhadoop.home=D:\SDK\hadoop-2.4.0

  • 在 ivy-resolve-common 处卡了大概 138 分钟,最后 build 失败,查看原因有两个,一个是找不到 4 个依赖包,一个是找不到 1 个核心包
  • 依赖包分别是这些,可能是换路径了吧:

https://oss.sonatype.org/content/groups/public/com/google/google/1/google-1.jar
https://oss.sonatype.org/content/groups/public/net/java/jvnet-parent/1/jvnet-parent-1.jar
https://oss.sonatype.org/content/groups/public/com/sun/jersey/contribs/jersey-contribs/1.9/jersey-contribs-1.9.jar
https://oss.sonatype.org/content/groups/public/org/eclipse/jetty/jetty-parent/14/jetty-parent-14.jar

  • 核心包是 commons-lang-2.5.jar
  • 想了一下,觉得那四个依赖包似乎没什么用,便想跳过那个步骤,想直接进行编译插件的步骤,便修改了“hadoop2x-eclipse-plugin-master\src\contrib\eclipse-plugin\build.xml”文件

<target name=”compile” depends=”init, ivy-retrieve-common” unless=”skip.contrib”>    去掉 depends

  • 核心包去 hadoop2.4 目录找,发现 hadoop2.4 用的 commons-lang-2.6.jar,便在 build.xml 中找到相应位置改为 2.6,这个需要说的是作者可能偷懒,在拷贝文件中使用的是变量,在配置信息中直接使用了 2.5,不统一,变量配置信息在“hadoop2x-eclipse-plugin-master\ivy\libraries.properties”文件中,搜索“commons-lang.version”将对应的版本改为 2.6,好了,在命令行下运行 ant,成功在“hadoop2x-eclipse-plugin-master\build\contrib\eclipse-plugin”下生成插件
  • 兴奋的拿着插件跟 myeclipse10 里试,失败(插件压根不出现),跟 eclipse3.7 里试,失败(插件能出现,但是无法正常使用,新增不了 location)
  • 拿着现成的 2.2 的插件均可以正常使用
  • 后来经过排查原因 myeclipse10 里是因为插件放的位置不对,不能直接放到 plugin 里;eclipse3.7 里失败是因为插件还缺少包
  • 如何排查的呢?看 eclipse 的启动日志,这个日志在 workplace 中的.metadata 文件下的.log 文件,在 eclipse3.7 里报的错误是无法初始化 hadoop,很郁闷,没太大帮助,于是就上 eclilpse 的官网下载了最新版的 eclipse4.3.2,将 ant 语句改为

D:\SDK\hadoop2x-eclipse-plugin-master\src\contrib\eclipse-plugin>ant jar -Dversion=2.4.0 -Declipse.home=D:\WorkTools\eclipse4.3.2 -Dhadoop.home=D:\SDK\hadoop-2.4.0

对,改为以 eclipse4.3.2 为 eclipse 目录 (这个配置主要就是为生成 eclipse 插件提供 jar 包支持),生成插件后放到 eclipse4.3.2 的 plugins 里,启动 eclipse 并观察日志,抛出异常

java.lang.NoClassDefFoundError: org/apache/commons/collections/map/UnmodifiableMap

  • yes~ 折腾了又两个多小时,终于让我抓住了,找到这个包,在 build.xml 中添加上,别忘了在配置信息中也要添加,就是文件最下边的 attribute,如果想以后方便,版本号也可以通过变量形式在 libraries.properties 中维护,搞定后,重新运行 ant
  • 终于行了,在 myeclipse10 下也可正常使用了(这么建立文件夹 MyEclipse 10\dropins\hadoop\eclipse\plugins,把插件扔这个文件夹下边就行了)
  • ————————————– 分割线 ————————————–

    相关阅读

    Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

    Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

    Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

    Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

    单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

    Hadoop LZO 安装教程 http://www.linuxidc.com/Linux/2013-01/78397.htm

    Hadoop 集群上使用 Lzo 压缩 http://www.linuxidc.com/Linux/2012-05/60554.htm

    ————————————– 分割线 ————————————–

———————————————— 最终的 build.xml 文件,修改的地方有注释 —————————————————————

<?xml version=”1.0″ encoding=”UTF-8″ standalone=”no”?>
<project default=”jar” name=”eclipse-plugin”>
  <import file=”../build-contrib.xml”/>
  <path id=”eclipse-sdk-jars”>
    <fileset dir=”${eclipse.home}/plugins/”>
      <include name=”org.eclipse.ui*.jar”/>
      <include name=”org.eclipse.jdt*.jar”/>
      <include name=”org.eclipse.core*.jar”/>
      <include name=”org.eclipse.equinox*.jar”/>
      <include name=”org.eclipse.debug*.jar”/>
      <include name=”org.eclipse.osgi*.jar”/>
      <include name=”org.eclipse.swt*.jar”/>
      <include name=”org.eclipse.jface*.jar”/>
      <include name=”org.eclipse.team.cvs.ssh2*.jar”/>
      <include name=”com.jcraft.jsch*.jar”/>
    </fileset>
  </path>
  <path id=”hadoop-sdk-jars”>
    <fileset dir=”${hadoop.home}/share/hadoop/mapreduce”>
      <include name=”hadoop*.jar”/>
    </fileset>
    <fileset dir=”${hadoop.home}/share/hadoop/hdfs”>
      <include name=”hadoop*.jar”/>
    </fileset>
    <fileset dir=”${hadoop.home}/share/hadoop/common”>
      <include name=”hadoop*.jar”/>
    </fileset>
  </path>
  <path id=”classpath”>
    <pathelement location=”${build.classes}”/>
    <path refid=”eclipse-sdk-jars”/>
    <path refid=”hadoop-sdk-jars”/>
  </path>
  <target name=”check-contrib” unless=”eclipse.home”>
    <property name=”skip.contrib” value=”yes”/>
    <echo message=”eclipse.home unset: skipping eclipse plugin”/>
  </target>
 <!– 这里我最后删除了 depends=”init, ivy-retrieve-common” –>
 <target name=”compile” depends=”init, ivy-retrieve-common” unless=”skip.contrib”>
    <echo message=”contrib: ${name}”/>
    <javac
    encoding=”${build.encoding}”
    srcdir=”${src.dir}”
    includes=”**/*.java”
    destdir=”${build.classes}”
    debug=”${javac.debug}”
    deprecation=”${javac.deprecation}”>
    <classpath refid=”classpath”/>
    </javac>
  </target>
  <target name=”jar” depends=”compile” unless=”skip.contrib”>
    <mkdir dir=”${build.dir}/lib”/>
    <copy  todir=”${build.dir}/lib/” verbose=”true”>
          <fileset dir=”${hadoop.home}/share/hadoop/mapreduce”>
          <include name=”hadoop*.jar”/>
          </fileset>
    </copy>
    <copy  todir=”${build.dir}/lib/” verbose=”true”>
          <fileset dir=”${hadoop.home}/share/hadoop/common”>
          <include name=”hadoop*.jar”/>
          </fileset>
    </copy>
    <copy  todir=”${build.dir}/lib/” verbose=”true”>
          <fileset dir=”${hadoop.home}/share/hadoop/hdfs”>
          <include name=”hadoop*.jar”/>
          </fileset>
    </copy>
    <copy  todir=”${build.dir}/lib/” verbose=”true”>
          <fileset dir=”${hadoop.home}/share/hadoop/yarn”>
          <include name=”hadoop*.jar”/>
          </fileset>
    </copy>

    <copy  todir=”${build.dir}/classes” verbose=”true”>
          <fileset dir=”${root}/src/java”>
          <include name=”*.xml”/>
          </fileset>
    </copy>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/protobuf-java-${protobuf.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/log4j-${log4j.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/commons-cli-${commons-cli.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/commons-configuration-${commons-configuration.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/commons-lang-${commons-lang.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <!– 下边这行是新增的,原来没有 –>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/commons-collections-${commons-collections.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/jackson-core-asl-${jackson.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/jackson-mapper-asl-${jackson.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/slf4j-log4j12-${slf4j-log4j12.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/slf4j-api-${slf4j-api.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/guava-${guava.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/hadoop-auth-${hadoop.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/commons-cli-${commons-cli.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <copy file=”${hadoop.home}/share/hadoop/common/lib/netty-${netty.version}.jar”  todir=”${build.dir}/lib” verbose=”true”/>
    <jar
      jarfile=”${build.dir}/hadoop-${name}-${version}.jar”
      manifest=”${root}/META-INF/MANIFEST.MF”>
      <manifest>
  <attribute name=”Bundle-ClassPath”
  value=”classes/,
 lib/hadoop-mapreduce-client-core-${hadoop.version}.jar,
 lib/hadoop-mapreduce-client-common-${hadoop.version}.jar,
 lib/hadoop-mapreduce-client-jobclient-${hadoop.version}.jar,
 lib/hadoop-auth-${hadoop.version}.jar,
 lib/hadoop-common-${hadoop.version}.jar,
 lib/hadoop-hdfs-${hadoop.version}.jar,
 lib/protobuf-java-${protobuf.version}.jar,
 lib/log4j-${log4j.version}.jar,
 lib/commons-cli-1.2.jar,
 lib/commons-configuration-1.6.jar,
 lib/commons-httpclient-3.1.jar,
 <!– 下边这行原来写的是 commons-lang-2.5 –>
 lib/commons-lang-${commons-lang.version}.jar,
 <!– 下边这行是新增的,原来没有 –>
 lib/commons-collections-${commons-collections.version}.jar,
 lib/jackson-core-asl-1.8.8.jar,
 lib/jackson-mapper-asl-1.8.8.jar,
 lib/slf4j-log4j12-1.7.5.jar,
 lib/slf4j-api-1.7.5.jar,
 lib/guava-${guava.version}.jar,
 lib/netty-${netty.version}.jar”/>
  </manifest>
      <fileset dir=”${build.dir}” includes=”classes/ lib/”/>
      <fileset dir=”${root}” includes=”resources/ plugin.xml”/>
    </jar>
  </target>
</project>

更多 Hadoop 相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计8673字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19350
评论数
4
阅读量
7963214
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
从“纸堆”到“电子化”文档:用这个开源系统打造你的智能文档管理系统

从“纸堆”到“电子化”文档:用这个开源系统打造你的智能文档管理系统

从“纸堆”到“电子化”文档:用这个开源系统打造你的智能文档管理系统 大家好,我是星哥。公司的项目文档存了一堆 ...
小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比 星哥玩云,带你从小白到上云高手。今天咱们就来聊聊——什...
【开源神器】微信公众号内容单篇、批量下载软件

【开源神器】微信公众号内容单篇、批量下载软件

【开源神器】微信公众号内容单篇、批量下载软件 大家好,我是星哥,很多人都希望能高效地保存微信公众号的文章,用于...
在Windows系统中通过VMware安装苹果macOS15

在Windows系统中通过VMware安装苹果macOS15

在 Windows 系统中通过 VMware 安装苹果 macOS15 许多开发者和爱好者希望在 Window...
300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

  300 元就能买到的 ” 小钢炮 ”?惠普 7L 四盘位小主机解析 最近...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞定

多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞定

多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞...
支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare 也瘫了连监控都挂,根因藏在哪? 最近两天的互联网堪称“故障...
星哥带你玩飞牛NAS硬件02:某鱼6张左右就可拿下5盘位的飞牛圣体NAS

星哥带你玩飞牛NAS硬件02:某鱼6张左右就可拿下5盘位的飞牛圣体NAS

星哥带你玩飞牛 NAS 硬件 02:某鱼 6 张左右就可拿下 5 盘位的飞牛圣体 NAS 前言 大家好,我是星...
每年0.99刀,拿下你的第一个顶级域名,详细注册使用

每年0.99刀,拿下你的第一个顶级域名,详细注册使用

每年 0.99 刀,拿下你的第一个顶级域名,详细注册使用 前言 作为长期折腾云服务、域名建站的老玩家,星哥一直...
手把手教你,购买云服务器并且安装宝塔面板

手把手教你,购买云服务器并且安装宝塔面板

手把手教你,购买云服务器并且安装宝塔面板 前言 大家好,我是星哥。星哥发现很多新手刚接触服务器时,都会被“选购...