`
michaellou
  • 浏览: 54625 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

oozie 4.0.0 on hadoop2.4.1安装笔记(完整版)

 
阅读更多

oozie版本:4.0.0(开始在官网下载4.0.1的版本,编译一直无法通过,报错说oozie-hadoop-4.0.1的jar,换4.0.0竟然没报错,不解)

hadoop 2.4.1 由于测试集群用了改版本,无奈,原本github上有编译好的oozie,但是最高才3.0,只能支持hadoop 2.0

==================================华丽的分割====================================

1.下载oozie源码[http://archive.apache.org/dist/oozie/4.0.0/]

2.下载ext2.2.zip【http://oozie.apache.org/docs/4.0.1/DG_QuickStart.html】

3.下载http-client和http-core(oozie.war 需要该包,否则server起来后,访问页面会报错)

 

4.解压oozie包后修改pom.xml,jdk改为1.7,hadoop.version改为2.4.1(其它hbase,pig等相应修改)

5.添加环境变量;

------------------------------------------------------------------------------------------------------------------------------

export HADOOP_HOME=/usr/local/hadoop

export HADOOP_INSTALL=/usr/local/hadoop

export HADOOP_MAPRED_HOME=$HADOOP_INSTALL

export HADOOP_COMMON_HOME=$HADOOP_INSTALL

export HADOOP_HDFS_HOME=$HADOOP_INSTALL

export YARN_HOME=$HADOOP_INSTALL

export OOZIE_HOME=/opt/oozie

export OOZIE_CONFIG=/opt/oozie/conf

 

PATH=$PATH:$HOME/bin:/usr/local/zookeeper-3.4.6/bin:$HADOOP_HOME/bin:$OOZIE_HOME/bin

------------------------------------------------------------------------------------------------------------------------------

6.编译oozie,进入bin,执行【mkdistro.sh -DskipTests】,进入漫长的编译过程,中间卡住,退出重新编译,直至全部success

7.将编译好的oozie-4.0.0-distro.tar.gz拷出来,解压,创建软链ln -s oozie-4.0.0 oozie[个人习惯,直接使用oozie-4.0.0也可以]

8.进入bin目录,打包可用war:

addtowar.sh -inputwar /opt/oozie/oozie.war -outputwar /opt/oozie/oozie-server/webapps/oozie.war -hadoop 2.4.1 /usr/local/hadoop -extjs /app/oozie/ext-2.2.zip

9.初始化db:

/ooziedb.sh create -sqlfile oozie.sql 

接着执行如下命令,执行oozie数据库脚本文件,初始数据库

 

./oozie-setup.sh db create -run  -sqlfile ./oozie.sql 

10.启动oozie服务:

oozie-run.sh 或者 oozied.sh start

11.访问 http://localhost:11000/oozie/,应该会报错,将之前下载的httpclient和httpcore包拷到oozie-server/webapps/WEB_INF/lib下,重新启动,可以访问到页面了

===========================================测试oozie自带examples=============================

12.将oozie/oozie-examples.tar.gz 解压,这里我们测试shell示例,将job.propertis文件打开,修改下面两个参数:

nameNode=hdfs://hadoop6:9000

 

jobTracker=hadoop6:8032

改之前可以telnet下端口是否可用,不可用检查hadoop的配置

13.修改hadoop的core-site.xml配置,添加:(如果不是root用户,改成当前使用的用户)

<property>

     <name>hadoop.proxyuser.root.hosts</name> 

     <value>*</value>

</property>

<property>

     <name>hadoop.proxyuser.root.groups</name>

     <value>root</value>

 

</property>

14.修改oozie下的配置,如下配置添加到【oozie/conf/hadoop-conf/core-site.xml】:(在hadoop的hadoop/etc/hadoop/mapred-site.xml中找到对应配置)

<property>

        <name>mapreduce.jobhistory.address</name>

        <value>hadoop6:10020</value>

 

    </property>

检查下改端口是否可用,不可用的话,登录到jobtracker所在机器,启动hadoop的服务:【mr-jobhistory-daemon.sh start historyserver】

15.重启下oozie-server服务,将shell下的文件put到hadoop上对应目录【oozie.wf.application.path=${nameNode}/user/${user.name}/${examplesRoot}/apps/shell】

16.在命令行下提交oozie任务:【oozie job -oozie http://192.168.69.16:11000/oozie/ -config /app/tmp/shell/job.properties -run】

web界面上应该产生了一条job记录!不出意外,应该可以执行成功!

 

分享到:
评论

相关推荐

    oozie 4.0.1 hadoop2.3.0 安装

    oozie 4.0.1 hadoop2.3.0 安装

    oozie在hadoop中配置代理

    oozie在hadoop中配置代理,内有相关链接及实际配置信息

    Oozie安装部署及任务定义说明

    3、整合Oozie和Hadoop 8 Oozie提交MapReduce任务事例 8 1上传lib和wf到hdfs上 8 2修改job.properties文件 8 3:修改workflow.xml 9 4:执行oozie客户端命令执行mapreduce 10 配置oozie工作流 10 Workflow.xml中控制...

    Apache Ooize Workflow Scheduler for Hadoop

    apache oozie workflow scheduler for hadoop

    oozie配置mysql:表结构详解

    oozie配置mysql所需表结构。Apache Oozie是用于Hadoop平台的一种工作流调度引擎。

    快速学习-Oozie的使用

    [atguigu@hadoop102 oozie-4.0.0-cdh5.3.6]$ tar -zxvf oozie-examples.tar.gz 2)创建工作目录 [atguigu@hadoop102 oozie-4.0.0-cdh5.3.6]$ mkdir oozie-apps/ 3)拷贝任务模板到oozie-apps/目录 [atguigu@hadoop...

    win10下搭建Hadoop环境(jdk+mysql+hadoop+scala+hive+spark) 3.docx

    win10下搭建Hadoop(jdk+mysql+hadoop+scala+hive+spark),包括jdk的安装、mysql安装和配置,hadoop安装和配置,scala安装和配置,hive安装和配置,spark安装和配置。

    Hadoop+Spark+Hive+HBase+Oozie+Kafka+Flume+Flink+ES+Redash等详细安装部署

    1、内容概要:Hadoop+Spark+Hive+HBase+Oozie+Kafka+Flume+Flink+Elasticsearch+Redash等大数据集群及组件搭建指南(详细搭建步骤+实践过程问题总结)。 2、适合人群:大数据运维、大数据相关技术及组件初学者。 3、...

    Hadoop安装学习-入门教程

    Hadoop 安装 学习 入门教程 Hadoop家族系列文章,主要介绍Hadoop家族产品,常用的项目包括Hadoop, Hive, Pig, HBase, Sqoop, Mahout, Zookeeper, Avro, Ambari, Chukwa,新增加的项目包括,YARN, Hcatalog, Oozie, ...

    Apache Oozie Essentials(PACKT,2015)

    Apache Oozie Essentials starts off with the basics right from installing and configuring Oozie from source code on your Hadoop cluster to managing your complex clusters. You will learn how to create ...

    Apache Hadoop---Oozie.docx

    Oozie由Cloudera公司贡献给Apache的基于工作流引擎的开源框架,是用于Hadoop平台的开源的工作流调度引擎,是用来管理Hadoop作业,属于web应用程序,由Oozie client和Oozie Server两个组件构成,Oozie Server运行于Java ...

    Oozie的安装与配置.docx

    oozie安装文件:Oozie的安装与配置及自带example演示。1111

    Apache Oozie_ The Workflow Scheduler for Hadoop

    Apache Oozie_ The Workflow Scheduler for Hadoop ,主要介绍oozie的使用

    尚硅谷 大数据 hive oozie sqoop kalfa flume zk hbase Hadoop

    尚硅谷 大数据 hive oozie sqoop kalfa flume zk hbase Hadoop

    oozie oozie

    Hadoop oozie报错:Table ‘oozie.VALIDATE_CONN’ doesn’t exist 。 oozie建表sql,直接下载执行

    HADOOP课程大纲.pdf

    Hadoop生态系统介绍和演示 Hadoop HDFS 和 MapReduce Hadoop数据库之HBase Hadoop数据仓库之Hive Hadoop数据处理脚本Pig Hadoop数据接口Sqoop和Flume,Scribe DataX Hadoop工作流引擎 Oozie 运用Hadoop自下而上构建...

    Hadoop.Application.Architectures.1491900083

    Get expert guidance on architecting end-to-end data management solutions with Apache Hadoop. While many sources explain how to use various components in the Hadoop ecosystem, this practical book takes...

    快速学习-Oozie的部署

    第3章 Oozie的部署 3.1 部署Hadoop(CDH版本的) 3.1.2 修改Hadoop配置 core-site.xml hadoop.proxyuser.atguigu.hosts * hadoop.proxyuser.atguigu.groups * mapred-site.xml mapreduce.jobhistory....

    Oozie安装教程

    文章目录一、安装Hadoop CDH环境1.上传安装包2.解压3.修改配置文件3.1hadoop-env.sh3.2mapred-env.sh3.3yarn-env.sh3.4core-site.xml3.5hdfs-site.xml3.6mapred-site.xml3.7yarn-site.xml3.8slaves4.远程发送配置...

    Hadoop实战(第2版)

    数据逻辑.2 将数据导入导出Hadoop.2.1 导入导出的关键要素2.2 将数据导入Hadoop .2.2.1 将日志文件导入Hadoop技术点1 使用Flume 将系统日志文件导入HDFS 2.2.2 导入导出半结构化和二进制文件技术点2...

Global site tag (gtag.js) - Google Analytics