Apache DolphinSchedule 安装部署踩坑
Apache DS 安装部署@Author:Michealkz镜像下载地址官方下载地址:https://dolphinscheduler.apache.org/zh-cn/download/download.html国内镜像下载地址:# 清华源下载地址https://mirrors.tuna.tsinghua.edu.cn/apache/incubator/dolphinscheduler/1.3
Apache DS 安装部署踩坑
@Author:Michealkz
前置基础知识
基本概念:
- 任务类型: 目前支持有SHELL、SQL、SUB_PROCESS(子流程)、PROCEDURE、MR、SPARK、PYTHON、DEPENDENT(依赖),同时计划支持动态插件扩展。
注意:其中子 SUB_PROCESS 也是一个单独的流程定义,是可以单独启动执行的 - 邮件告警:支持 SQL任务 查询结果邮件发送,流程实例运行结果邮件告警及容错告警通知
- 失败策略:对于并行运行的任务,如果有任务失败,提供两种失败策略处理方式,继续是指不管并行运行任务的状态,直到流程失败结束。结束是指一旦发现失败任务,则同时Kill掉正在运行的并行任务,流程失败结束
补数:补历史数据,支持区间并行和串行两种补数方式 - MasterServer:MasterServer 采用分布式无中心设计理念,MasterServer 主要负责 DAG 任务切分、任务提交监控,并同时监听其它 MasterServer 和 WorkerServer 的健康状态。MasterServer 服务启动时向 Zookeeper 注册临时节点,通过监听 Zookeeper 临时节点变化来进行容错处理。 MasterServer 基于 netty 提供监听服务。
- WorkerServer:WorkerServer 也采用分布式无中心设计理念,WorkerServer 主要负责任务的执行和提供日志服务。 WorkerServer 服务启动时向Zookeeper注册临时节点,并维持心跳。 Server 基于 netty 提供监听服务。
- 队列:这里指的是任务的队列,提供任务队列的操作,目前队列也是基于Zookeeper来实现。由于队列中存的信息较少,不必担心队列里数据过多的情况,实际上我们压测过百万级数据存队列,对系统稳定性和性能没影响。
- 主从切换:
DolphinScheduler 并不存在主从的问题,master节点主要负责dag切分,提交任务监控,worker 节点主要负责任务的执行和日志服务,master 和worder 节点均由zookeeper 选举产生
架构和设计思想:去中心化
- 中心化的思想:中心化的设计理念比较简单,分布式集群中的节点按照角色分工,大体上分为两种角色:Master的角色主要负责任务分发并监督Slave的健康状态,可以动态的将任务均衡到Slave上,以致Slave节点不至于“忙死”或”闲死”的状态。Worker的角色主要负责任务的执行工作并维护和Master的心跳,以便Master可以分配任务给Slave。
- 中心化思想设计存在的问题:一旦Master出现了问题,则群龙无首,整个集群就会崩溃。为了解决这个问题,大多数Master/Slave架构模式都采用了主备Master的设计方案,可以是热备或者冷备,也可以是自动切换或手动切换,而且越来越多的新系统都开始具备自动选举切换Master的能力,以提升系统的可用性。另外一个问题是如果Scheduler在Master上,虽然可以支持一个DAG中不同的任务运行在不同的机器上,但是会产生Master的过负载。如果Scheduler在Slave上,则一个DAG中所有的任务都只能在某一台机器上进行作业提交,则并行任务比较多的时候,Slave的压力可能会比较大。
- 集群中的管理者是被动态选择出来的,而不是预置的,并且集群在发生故障的时候,集群的节点会自发的举行"会议"来选举新的"管理者"去主持工作。最典型的案例就是 ZooKeeper 及 Go 语言实现的 Etcd。
- DolphinScheduler的去中心化是Master/Worker注册到Zookeeper中,实现Master集群和Worker集群无中心,并使用Zookeeper分布式锁来选举其中的一台Master或Worker为“管理者”来执行任务。
- DolphinScheduler使用ZooKeeper分布式锁来实现同一时刻只有一台Master执行Scheduler,或者只有一台Worker执行任务的提交。
镜像下载地址
官方下载地址:https://dolphinscheduler.apache.org/zh-cn/download/download.html
国内镜像下载地址:
# 清华源下载地址
https://mirrors.tuna.tsinghua.edu.cn/apache/incubator/dolphinscheduler/1.3.5/apache-dolphinscheduler-incubating-1.3.5-dolphinscheduler-bin.tar.gz
# 北理工源下载地址
https://mirrors.bfsu.edu.cn/apache/incubator/dolphinscheduler/1.3.5/apache-dolphinscheduler-incubating-1.3.5-dolphinscheduler-bin.tar.gz
部署模式:单机部署/集群部署
单机部署参考官方文档:https://dolphinscheduler.apache.org/zh-cn/docs/1.3.5/user_doc/quick-start.html
这里采用的是集群部署的方式
集群部署(Cluster)
1.主机规划:
选择三台节点安装DolphinSchedule ,节点的选择可以随意,建议和zookeeper节点保持在同一机器上
192.168.5.72 | Monitor | DolphinScheduler |
---|---|---|
192.168.5.19 | hdnamenode | DolphinScheduler |
192.168.5.61 | hddatanode01 | DolphinScheduler |
2.基础软件安装
- PostgreSQL (8.2.15+) or MySQL (5.7系列) : 两者任选其一即可, 如MySQL则需要JDBC Driver 5.1.47+
- JDK (1.8+) : 必装,请安装好后在/etc/profile下配置 JAVA_HOME 及 PATH 变量
- ZooKeeper (3.4.6+) :必装
- Hadoop (2.6+) or MinIO :选装,如果需要用到资源上传功能,可以选择上传到Hadoop or MinIO上
注意:DolphinScheduler本身不依赖Hadoop、Hive、Spark,仅是会调用他们的Client,用于对应任务的提交。
3.下载二进制tar.gz包
- 请下载最新版本的后端安装包至服务器部署目录,比如创建 /opt/dolphinscheduler 做为安装部署目录,下载地址: 下载,下载后上传tar包到该目录中,并进行解压
# 创建部署目录,部署目录请不要创建在/root、/home等高权限目录
mkdir -p /opt/dolphinscheduler;
cd /opt/dolphinscheduler;
# 解压缩
tar -zxvf apache-dolphinscheduler-incubating-1.3.4-dolphinscheduler-bin.tar.gz -C /opt/dolphinscheduler;
mv apache-dolphinscheduler-incubating-1.3.4-dolphinscheduler-bin dolphinscheduler-bin
4.创建部署用户和hosts映射
- 在所有部署调度的机器上创建部署用户,并且一定要配置sudo免密。假如我们计划在ds1,ds2,ds3,ds4这4台机器上部署调度,首先需要在每台机器上都创建部署用户
# 创建用户需使用root登录,设置部署用户名,请自行修改,后面以dolphinscheduler为例
useradd dolphinscheduler;
# 设置用户密码,请自行修改,后面以dolphinscheduler123为例
echo "dolphinscheduler123" | passwd --stdin dolphinscheduler
# 配置sudo免密
echo 'dolphinscheduler ALL=(ALL) NOPASSWD: NOPASSWD: ALL' >> /etc/sudoers
sed -i 's/Defaults requirett/#Defaults requirett/g' /etc/sudoers
注意:
- 因为是以 sudo -u {linux-user} 切换不同linux用户的方式来实现多租户运行作业,所以部署用户需要有 sudo 权限,而且是免密的。
- 如果发现/etc/sudoers文件中有"Default requiretty"这行,也请注释掉
- 如果用到资源上传的话,还需要在`HDFS或者MinIO`上给该部署用户分配读写的权限
5.配置hosts映射和ssh打通及修改目录权限
- 以第一台机器(hostname为ds1)作为部署机,在ds1上配置所有待部署机器的hosts, 在ds1以root登录
vi /etc/hosts
#add ip hostname
192.168.xxx.xxx ds1
192.168.xxx.xxx ds2
192.168.xxx.xxx ds3
192.168.xxx.xxx ds4
注意:请删掉或者注释掉127.0.0.1这行
在ds1上,切换到部署用户并配置ssh本机免密登录
su dolphinscheduler;
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
注意:正常设置后,dolphinscheduler用户在执行命令ssh localhost
是不需要再输入密码的
在ds1上,配置部署用户dolphinscheduler ssh打通到其他待部署的机器
在ds1上,修改目录权限,使得部署用户对dolphinscheduler-bin目录有操作权限
sudo chown -R dolphinscheduler:dolphinscheduler dolphinscheduler-bin
6.数据库初始化
- 进入数据库,默认数据库是PostgreSQL,如选择MySQL的话,后续需要添加mysql-connector-java驱动包到DolphinScheduler的lib目录下,这里以MySQL为例
mysql -h192.168.xx.xx -P3306 -uroot -p
- 进入数据库命令行窗口后,执行数据库初始化命令,设置访问账号和密码。注: {user} 和 {password} 需要替换为具体的数据库用户名和密码
CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci;
GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{root}'@'%' IDENTIFIED BY '{CDPmonitor123456*}';
GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{root}'@'localhost' IDENTIFIED BY '{CDPmonitor123456*}';
flush privileges;
- 创建表和导入基础数据
修改 conf 目录下 datasource.properties 中的下列配置
vi conf/datasource.properties
如果选择 MySQL,请注释掉 PostgreSQL 相关配置(反之同理), 还需要手动添加 [ mysql-connector-java 驱动 jar ] 包到 lib 目录下,这里下载的是mysql-connector-java-5.1.47.jar,然后正确配置数据库连接相关信息
#postgre
#spring.datasource.driver-class-name=org.postgresql.Driver
#spring.datasource.url=jdbc:postgresql://localhost:5432/dolphinscheduler
# mysql
spring.datasource.driver-class-name=com.mysql.jdbc.Driver
spring.datasource.url=jdbc:mysql://xxx:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8&allowMultiQueries=true 需要修改ip
spring.datasource.username=xxx 需要修改为上面的{user}值
spring.datasource.password=xxx 需要修改为上面的{password}值
# 修改之后
spring.datasource.driver-class-name=com.mysql.jdbc.Driver
spring.datasource.url=jdbc:mysql://192.168.5.72:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8&allowMultiQueries=true
spring.datasource.username=root
spring.datasource.password=CDPmonitor123456*
修改并保存完后,执行 script 目录下的创建表及导入基础数据脚本
sh script/create-dolphinscheduler.sh
注意: 如果执行上述脚本报 ”/bin/java: No such file or directory“ 错误,请在/etc/profile下配置 JAVA_HOME 及 PATH 变量
7.修改运行参数
修改 conf/env 目录下的 dolphinscheduler_env.sh
环境变量(以相关用到的软件都安装在/opt/soft下为例)
export HADOOP_HOME=/opt/cloudera/parcels/CDH/lib/hadoop
export HADOOP_CONF_DIR=/etc/hadoop/conf
#export SPARK_HOME1=/opt/soft/spark1
export SPARK_HOME2=/opt/cloudera/parcels/CDH/lib/spark
export PYTHON_HOME=/bin/python
export JAVA_HOME=/usr/java/jdk1.8.0_45/
export HIVE_HOME=/opt/cloudera/parcels/CDH/lib/hive
export FLINK_HOME=/opt/soft/flink
export PATH=$HADOOP_HOME/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$PATH:$FLINK_HOME/bin:$PATH
注: 这一步非常重要,例如 JAVA_HOME 和 PATH 是必须要配置的,没有用到的可以忽略或者注释掉
将jdk软链到/usr/bin/java下(仍以 JAVA_HOME=/opt/soft/java 为例)
sudo ln -s /usr/java/jdk1.8.0_45/bin/java /usr/bin/java
修改一键部署配置文件 conf/config/install_config.conf
中的各参数,特别注意以下参数的配置
# 这里填 mysql or postgresql
dbtype="mysql"
# 数据库连接地址
dbhost="192.168.xx.xx:3306"
# 数据库名
dbname="dolphinscheduler"
# 数据库用户名,此处需要修改为上面设置的{user}具体值
username="xxx"
# 数据库密码, 如果有特殊字符,请使用\转义,需要修改为上面设置的{password}具体值
password="xxx"
#Zookeeper地址
zkQuorum="192.168.5.61:2181,192.168.5.65:2181,192.168.5.67:2181"
#将DS安装到哪个目录,如: /opt/dolphinscheduler/app,不同于现在的目录
installPath="/opt/dolphinscheduler/dolphinscheduler"
#使用哪个用户部署,使用第3节创建的用户
deployUser="dolphinscheduler"
# 邮件配置,以qq邮箱为例
# 邮件协议
mailProtocol="SMTP"
# 邮件服务地址
mailServerHost="smtp.qq.com"
# 邮件服务端口
mailServerPort="25"
# mailSender和mailUser配置成一样即可
# 发送者
mailSender="xxx@qq.com"
# 发送用户
mailUser="xxx@qq.com"
# 邮箱密码
mailPassword="xxx"
# TLS协议的邮箱设置为true,否则设置为false
starttlsEnable="true"
# 开启SSL协议的邮箱配置为true,否则为false。注意: starttlsEnable和sslEnable不能同时为true
sslEnable="false"
# 邮件服务地址值,参考上面 mailServerHost
sslTrust="smtp.qq.com"
# 业务用到的比如sql等资源文件上传到哪里,可以设置:HDFS,S3,NONE,单机如果想使用本地文件系统,请配置为HDFS,因为HDFS支持本地文件系统;如果不需要资源上传功能请选择NONE。强调一点:使用本地文件系统不需要部署hadoop
resourceStorageType="HDFS"
#如果上传资源保存想保存在hadoop上,hadoop集群的NameNode启用了HA的话,需要将hadoop的配置文件core-site.xml和hdfs-site.xml放到安装路径的conf目录下,本例即是放到/opt/soft/dolphinscheduler/conf下面,并配置namenode cluster名称;如果NameNode不是HA,则只需要将mycluster修改为具体的ip或者主机名即可
defaultFS="hdfs://192.168.5.19:8020"
# 如果没有使用到Yarn,保持以下默认值即可;如果ResourceManager是HA,则配置为ResourceManager节点的主备ip或者hostname,比如"192.168.xx.xx,192.168.xx.xx";如果是单ResourceManager请配置yarnHaIps=""即可
yarnHaIps=""
# 如果ResourceManager是HA或者没有使用到Yarn保持默认值即可;如果是单ResourceManager,请配置真实的ResourceManager主机名或者ip
singleYarnIp="yarnIp1"
# 资源上传根路径,主持HDFS和S3,由于hdfs支持本地文件系统,需要确保本地文件夹存在且有读写权限
resourceUploadPath="/data/dolphinscheduler"
# 具备权限创建resourceUploadPath的用户
hdfsRootUser="hdfs"
#在哪些机器上部署DS服务,本机选localhost
ips="192.168.5.72,192.168.5.19,192.168.5.61"
#ssh端口,默认22
sshPort="22"
#master服务部署在哪台机器上
masters="192.168.5.72,192.168.5.19"
#worker服务部署在哪台机器上,并指定此worker属于哪一个worker组,下面示例的default即为组名
workers="192.168.5.72:default,192.168.5.19:default,192.168.5.61:default"
#报警服务部署在哪台机器上
alertServer="192.168.5.72"
#后端api服务部署在在哪台机器上
apiServers="192.168.5.72"
特别注意:
- 如果需要用资源上传到Hadoop集群功能, 并且Hadoop集群的NameNode 配置了 HA的话 ,需要开启 HDFS类型的资源上传,同时需要将Hadoop集群下的core-site.xml和hdfs-site.xml复制到/opt/dolphinscheduler/conf,非NameNode HA跳过次步骤
8.一键部署
切换到部署用户dolphinscheduler,然后执行一键部署脚本
sh install.sh
注意:
第一次部署的话,在运行中第3步3,stop server
出现5次以下信息,此信息可以忽略
sh: bin/dolphinscheduler-daemon.sh: No such file or directory
脚本完成后,会启动以下5个服务,使用jps
命令查看服务是否启动(jps
为java JDK
自带)
MasterServer ----- master服务
WorkerServer ----- worker服务
LoggerServer ----- logger服务
ApiApplicationServer ----- api服务
AlertServer ----- alert服务
如果以上服务都正常启动,说明自动部署成功
部署成功后,可以进行日志查看,日志统一存放于logs文件夹内
logs/
├── dolphinscheduler-alert-server.log
├── dolphinscheduler-master-server.log
|—— dolphinscheduler-worker-server.log
|—— dolphinscheduler-api-server.log
|—— dolphinscheduler-logger-server.log
9.登录系统
访问前端页面地址,接口ip(自行修改) http://192.168.5.xx:12345/dolphinscheduler
用户名/密码:admin/dolphinscheduler123
10.启停服务
-
一键停止集群所有服务
sh ./bin/stop-all.sh
-
一键开启集群所有服务
sh ./bin/start-all.sh
-
启停Master
sh ./bin/dolphinscheduler-daemon.sh start master-server
sh ./bin/dolphinscheduler-daemon.sh stop master-server
- 启停Worker
sh ./bin/dolphinscheduler-daemon.sh start worker-server
sh ./bin/dolphinscheduler-daemon.sh stop worker-server
- 启停Api
sh ./bin/dolphinscheduler-daemon.sh start api-server
sh ./bin/dolphinscheduler-daemon.sh stop api-server
- 启停Logger
sh ./bin/dolphinscheduler-daemon.sh start logger-server
sh ./bin/dolphinscheduler-daemon.sh stop logger-server
- 启停Alert
sh ./bin/dolphinscheduler-daemon.sh start alert-server
sh ./bin/dolphinscheduler-daemon.sh stop alert-server
注:服务用途请具体参见《系统架构设计》小节
11.卸载重装
- 停止dolphin scheduler所有服务
sh bin/stop-all.sh
- 清除Mysql或者GP中创建的dolphinscheduler的数据库
- 删除之前安装dolphinscheduler的目录
- 修改相关配置文件从 【6.数据库初始化】开始安装
FAQ
-
提交spark程序时候dag的租户问题,队列问题
租户就是相当于提交spark任务时候的用户,和dolphinscheduler的用户无关,但是需要配置dolphinscheduler用户对应的租户 -
启用资源中心需要配置HDFS,此外CDH版本的HADOOP_HOME 配置地址需要注意
FAQ-2:
1.单步执行:可以右键点击节点进行执行,执行的时候可以选择三种执行模式:
- 从本节点向前面执行
- 从本节点向后面执行
- 仅仅执行本节点
2.系统参数:待测试
日期参数:${system.biz.date} ${system.biz.curdate} ${system.datetime}
可以自定义日期格式,比如想用-分割的日期格式,可以在脚本中配置$[yyyy-MM-dd] 用于得到当前日期$[yyyy-MM-dd-1]用于得到前一天的日期
全局参数:
在保存dag的时候设置全局参数
3.补数机制的参数问题
可设置日期进行补数据,补数据的依赖是你调用系统的时间,比如在脚本中引用系统时间参数,补数据的时间为系统的时间参数加 1
例子:脚本中获取的是当前的时间,选择的补数机制的日期为20号-24 号,那么脚本中执行的时间为21-25 号
有两种方式进行解决:
1. 补数机制的时候选择的日期整体提前一天,比如原来是20-24,那么现在选择的是19-23
2. 在脚本中使用原来的时间的前一天,那么补数机制选择日期的时候即可按照正常的时间进行选择
4.主从切换
不存在主从切换的概念,master 和worker 均由zookeeper 选举产生,不存在主从的概念
5.参数传递
参数主要是系统时间参数,可以在代码中通过echo “前一天的日期为:$[yyyy-MM-dd-1]” 的方式获取前一天的日期,日期格式也可进行自定义
6.Worker 分组问题
由于配置的worker节点是三台机器,脚本执行不知道被分发到那台机器,所以需要配置指定的worker分组
在指定的机器上面执行脚本,比如只在特定的机器上面配置了python3 的环境,所以需要指定机器运行,并且worker 节点最好配置到能提交任务的节点
问题解决:手动编写配置文件,重启DS 之后,在任务选择的worker 分组界面选择对应的worker 组进行执行
7.租户的问题
DS 运行任务时候提交任务是和指定的租户进行绑定,租户配置不正确会导致访问HDFS 的问题
优化
队列:
DolphinSchedule 队列目前是和用户进行绑定的,为不同的用户设置不同队列,租户上面的用户绑定队列是不生效的
子节点:
只能够选择当前项目的工作流,在一个工作流引入其他工作流作为子节点,运行时子节点也可以运行,可以集中调度,也可以单点调度
只能够引入当前项目的工作流,不能够引入其他项目的工作流(可以提交到社区),折中的做法,可以将其他项目的工作流导出,再导入当前工作流,但是存在的问题时其他工作流变更后需要重新导出导入,
依赖节点:
可以创建依赖节点,可以多个依赖节点,只有依赖节点执行完成之后,才能够执行其他的节点,其他的能够跑成功之后,才能跑下面的
失败重试机制:
shell task运行的状态
结束的标识状态:exit 0 都是成功的,失败的情况下可以指定 exit 1
可以设置失败的次数,和失败的重试时间间隔,粒度为分钟级别
补数机制:
有依赖关系:串
无依赖关系:坑:27个工作流实例,机器负载彪高,夯住,
补数:滞后了一天比如 2-4号的数需要选择1-3号
优化:补数据选择日期并没有真正按照日期走,很别扭
1.错误排查:以root方式启动之后,log文件中会产生root:root 用户生成的文件,当再次以dolphinscheduler 用户和用户组启动时候 会出现问题,需要将其改为dolphinscheduler:dolphinscheduler 再用dolphinscheduler 用户启动
更多推荐
所有评论(0)