Note25:Azkaban-2.5.0安装配置

安装包下载安装

  • 地址:
  • 个人选择这个版本Azkaban-2.5.0
  • 把安装包上传到 /opt/software 目录
  • 在/opt/module/目录下创建 azkaban 目录
[kevin@hadoop112 module]$ mkdir azkaban
  • 解压
[kevin@hadoop112 software]$ tar -zxvf azkaban-executor-server-2.5.0.tar.gz -C /opt/module/azkaban/
[kevin@hadoop112 software]$ tar -zxvf azkaban-web-server-2.5.0.tar.gz -C /opt/module/azkaban/
[kevin@hadoop112 software]$ tar -zxvf azkaban-sql-script-2.5.0.tar.gz -C /opt/module/azkaban/
  • 改名
[kevin@hadoop112 module]$ cd /opt/module/azkaban/
[kevin@hadoop112 azkaban]$ mv azkaban-executor-2.5.0/ executor
[kevin@hadoop112 azkaban]$ mv azkaban-web-2.5.0/ server

生成数据库 (azkaban 脚本导入)

[kevin@hadoop112 azkaban]$ mysql -uroot -p123456
mysql> create database azkaban;
mysql> use azkaban;
mysql> source /opt/module/azkaban/azkaban-2.5.0/create-all-sql-2.5.0.sql

注:source 后跟.sql 文件,用于批量处理.sql 文件中的 sql 语句。

生成密钥库

Keytool 是 java 数据证书的管理工具,使用户能够管理自己的公/私钥对及相关证书。

-keystore 指定密钥库的名称及位置(产生的各类信息将不在.keystore 文件中)

-genkey 在用户主目录中创建一个默认文件".keystore"

-alias 对我们生成的.keystore 进行指认别名;如果没有默认是 mykey

-keyalg 指定密钥的算法 RSA/DSA 默认是 DSA

  • 在 azkaban web 服务器中,生成 keystore 的密码及相应信息的密钥库
[kevin@hadoop112 azkaban]$ cd /opt/module/azkaban/server/
[kevin@hadoop112 server]$ keytool -keystore keystore -alias kevin -genkey -keyalg RSA

会提示下面的内容:只需输入自定义的口令,并在是否正确输入y就行了;其它直接回车。

需要输入密钥库口令:
再次输入新口令: 
您的名字与姓氏是什么? 
[Unknown]: 
您的组织单位名称是什么? 
[Unknown]: 
您的组织名称是什么? 
[Unknown]: 
您所在的城市或区域名称是什么? 
[Unknown]: 
您所在的省/市/自治区名称是什么? 
[Unknown]: 
该单位的双字母国家/地区代码是什么? 
[Unknown]: 
CN=Unknown, OU=Unknown, O=Unknown, L=Unknown, ST=Unknown, C=Unknown 是否正确? 
[否]: y
输入  的密钥口令 
(如果和密钥库口令相同, 按回车): 
再次输入新口令:
  • 查看 密钥
[kevin@hadoop112 server]$ keytool -keystore keystore -list

配置

Web 服务器配置
  • 修改conf目录下的 azkaban.properties
[kevin@hadoop112 server]$ cd /opt/module/azkaban/server/conf
[kevin@hadoop112 conf]$ vim azkaban.properties

文件修改后的全部内容为:

#Azkaban Personalization Settings
#服务器 UI 名称,用于服务器上方显示的名字
azkaban.name=Test
#描述
azkaban.label=My Local Azkaban
#UI 颜色
azkaban.color=#FF3601
azkaban.default.servlet.path=/index
#默认 web server 存放 web 文件的目录
web.resource.dir=/opt/module/azkaban/server/web/
#默认时区,已改为亚洲/上海 默认为美国
default.timezone.id=Asia/Shanghai

#Azkaban UserManager class
user.manager.class=azkaban.user.XmlUserManager
#用户权限管理默认类(绝对路径)
user.manager.xml.file=/opt/module/azkaban/server/conf/azkaban-users.xml

#Loader for projects
#global 配置文件所在位置(绝对路径)
executor.global.properties=/opt/module/azkaban/executor/conf/global.properties
azkaban.project.dir=projects

#数据库类型
database.type=mysql
mysql.port=3306
mysql.host=hadoop112
mysql.database=azkaban
mysql.user=root
mysql.password=123456
#最大连接数
mysql.numconnections=100

# Velocity dev mode
velocity.dev.mode=false

# Azkaban Jetty server properties.
# Jetty 服务器属性.
#最大线程数
jetty.maxThreads=25
#Jetty SSL 端口
jetty.ssl.port=8443
#Jetty 端口
jetty.port=8081
#SSL 文件名(绝对路径)
jetty.keystore=/opt/module/azkaban/server/keystore
#SSL 文件密码
jetty.password=123456
#Jetty 主密码与 keystore 文件相同
jetty.keypassword=123456
#SSL 文件名(绝对路径)
jetty.truststore=/opt/module/azkaban/server/keystore
#SSL 文件密码
jetty.trustpassword=123456

# Azkaban Executor settings
executor.port=12321

# mail settings
mail.sender=
mail.host=
job.failure.email=
job.success.email=

lockdown.create.projects=false

cache.directory=cache
  • 修改 azkaban-users.xml 文件,增加管理员用户
[kevin@hadoop112 conf]$ vim azkaban-users.xml

        
        
        

        
        

执行服务器配置
  • 修改conf目录下的 azkaban.properties
[kevin@hadoop112 executor]$ cd /opt/module/azkaban/executor/conf
[kevin@hadoop112 conf]$ vim azkaban.properties

文件修改后的全部内容为:

#Azkaban
#时区
default.timezone.id=Asia/Shanghai

# Azkaban JobTypes Plugins
#jobtype 插件所在位置
azkaban.jobtype.plugin.dir=plugins/jobtypes

#Loader for projects
executor.global.properties=/opt/module/azkaban/executor/conf/global.properties
azkaban.project.dir=projects

database.type=mysql
mysql.port=3306
mysql.host=hadoop112
mysql.database=azkaban
mysql.user=root
mysql.password=123456
mysql.numconnections=100

# Azkaban Executor settings
#最大线程数
executor.maxThreads=50
#端口号(如修改,请与 web 服务中一致)
executor.port=12321
#线程数
executor.flow.threads=30

启动

  • https://mvnrepository.com/artifact/org.apache.derby/derby/10.14.2.0
  • 启动 executor服务器
[kevin@hadoop112 azkaban]$ cd /opt/module/azkaban/
[kevin@hadoop112 azkaban]$ ./executor/bin/azkaban-executor-start.sh

显示出端口号,就是启动成功,可以直接回车了
INFO [AzkabanExecutorServer] [Azkaban] Azkaban Executor Server started on port 12321
  • 启动 web服务器
[kevin@hadoop112 azkaban]$ ./server/bin/azkaban-web-start.sh

显示出端口号,就是启动成功,可以直接回车了
INFO [AzkabanWebServer] [Azkaban] Server running on ssl port 8443.
  • 有时候会启动失败

缺失Apache的derby包

下载地址,改名为 derby.jar 拉取到 /opt/module/azkaban/executor/lib/opt/module/azkaban/server/lib 即可

  • 查询进程
[kevin@hadoop112 azkaban]$ xcall.sh jps

8350 AzkabanWebServer
8414 Jps
8319 AzkabanExecutorServer
  • 访问 Web 页面(注意是https

https://hadoop112:8443

账号密码在 web服务器下的 azkaban-users.xml文件里设置

上面账号密码均设置为admin

使用时后台会报 certificate_unknown 这个错,因为密钥是自己生成的,没认证,不管它。

关闭

[kevin@hadoop112 azkaban]$ ./server/bin/azkaban-web-shutdown.sh
[kevin@hadoop112 azkaban]$ ./executor/bin/azkaban-executor-shutdown.sh

使用

Azkaban 内置的任务类型支持 command、java

1、单 job任务启动
  • 创建 job 描述文件
[kevin@hadoop112 azkaban]$ mkdir jobs
[kevin@hadoop112 azkaban]$ cd jobs
[kevin@hadoop112 jobs]$ vim first.job

#first.job
type=command
command=echo 'this is my first job'
  • 将 job 资源文件打包成 zip 文件
 [kevin@hadoop112 jobs]$ zip first.zip first.job
 adding: first.job (deflated 15%)

注意:

目前,Azkaban 上传的工作流文件只支持 xxx.zip 文件。zip 应包含 xxx.job 运行作业所需的文件和任何文件(文件名后缀必须以.job 结尾,否则无法识别)。作业名称在项目中必须是唯一的。

  • 创建项目并上传job的zip文件
  • 启动执行


  • 执行成功
2、多 job 工作流案例
  • 创建有依赖关系的多个 job 描述

  • 第一个 job:start.job

[kevin@hadoop112 jobs]$ vim start.job

#first.job
type=command
command=touch /opt/module/azkabanTest.txt
  • 第二个 job:step1.job 依赖 start.job
[kevin@hadoop112 jobs]$ vim step1.job

#step1.job
type=command
dependencies=start
command=echo "this is step1 job">>/opt/module/azkabanTest.txt
  • 第三个 job:step2.job 依赖 start.job
[kevin@hadoop112 jobs]$ vim step2.job

#job:step2.job
type=command
dependencies=start
command=echo "this is step2 job">>/opt/module/azkabanTest.txt
  • 第四个 job:finish.job 依赖 step1.job 和 step2.job
[kevin@hadoop112 jobs]$ vim finish.job

#job:finish.job
type=command
dependencies=step1,step2
command=echo "this is job:finish job ${dt}">>/opt/module/azkabanTest.txt
  • 打包创建项目上传

结构顺序

  • 赋值
  • 执行成功
  • 赋值结果
3、配置邮件通知
  • 修改配置文件

修改 server 的 conf 下的 azkaban.properties 文件

# mail settings
[email protected]
mail.host=smtp.163.com
[email protected]
mail.password=password
job.failure.email=
job.success.email=
  • 在网页上进行配置
4、Java 操作任务
  • 编写 java 程序
import java.io.IOException;
public class AzkabanTest {
    public void run() throws IOException {
        // 根据需求编写具体代码
        FileOutputStream fos = new FileOutputStream("/opt/module/azkaban/output.txt");
        fos.write("this is a java progress".getBytes());
        fos.close();
    }
    public static void main(String[] args) throws IOException {
        AzkabanTest azkabanTest = new AzkabanTest();
        azkabanTest.run();
    } 
}
  • 将 java 程序打成 jar 包,创建 lib 目录,将 jar 放入 lib 内
[kevin@hadoop112 azkaban]$ cd /opt/module/azkaban/
[kevin@hadoop112 azkaban]$ mkdir lib
[kevin@hadoop112 azkaban]$ cd lib/
  • 编写 job 文件
[kevin@hadoop112 azkaban]$ cd jobs
[kevin@hadoop112 jobs]$ vim azkabanJava.job

#azkabanJava.job
type=javaprocess
java.class=com.atguigu.azkaban.AzkabanTest
classpath=/opt/module/azkaban/lib/*
  • 将 job 文件打成 zip 包
[kevin@hadoop112 jobs]$ zip azkabanJava.zip azkabanJava.job 
 adding: azkabanJava.job (deflated 19%)
  • 上传执行

下面都是基于 command 操作(大同小异)

5、HDFS 操作任务
  • 创建 job 描述文件
[kevin@hadoop112 jobs]$ vim fs.job

#hdfs job
type=command
command=/opt/module/hadoop-2.7.2/bin/hadoop fs -mkdir /azkaban
  • 将 job 资源文件打包成 zip 文件
[kevin@hadoop112 jobs]$ zip fs.zip fs.job 
 adding: fs.job (deflated 12%)
  • 上传执行
6、MapReduce 任务
  • 创建 job 描述文件
[kevin@hadoop112 jobs]$ vim mapreduce.job

#mapreduce job
type=command
command=/opt/module/hadoop-2.7.2/bin/hadoop jar /opt/module/hadoop-2.7.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /wordcount/input /wordcount/output
  • 将 job 资源文件打包成 zip 文件
[kevin@hadoop112 jobs]$ zip mapreduce.zip mapreduce.job 
 adding: mapreduce.job (deflated 43%)
  • 上传执行
7、Hive 脚本任务
  • 创建 job 描述文件和 hive 脚本

Hive 脚本:student.sql

[kevin@hadoop112 jobs]$ vim student.sql

use default;
drop table student;
create table student(id int, name string)
row format delimited fields terminated by '\t';
load data local inpath '/opt/module/datas/student.txt' into table student;
insert overwrite local directory '/opt/module/datas/student' row format delimited fields terminated by '\t'
select * from student;

Job 描述文件:hive.job

[kevin@hadoop112 jobs]$ vim hive.job

#hive job
type=command
command=/opt/module/hive/bin/hive -f /opt/module/azkaban/jobs/student.sql
  • 将 job 资源文件打包成 zip 文件
[kevin@hadoop112 jobs]$ zip hive.zip hive.job 
 adding: hive.job (deflated 21%)
  • 上传执行

你可能感兴趣的:(Note25:Azkaban-2.5.0安装配置)