DataSphere Studio(简称DSS)是微众银⾏——WeDataSphere,⾃研的⼀站式数据应⽤开发管理门户。
基于Linkis计算中间件构建,可轻松整合上层各数据应⽤系统,让数据变得简洁⼜易⽤。
⼆、安装准备
DSS部署分为精简版和标准版,本⽂主要介绍在上部署DSS-0.7.0标准版,标准版部署有⼀定的难度,
适合于试⽤和⽣产使⽤,2~3⼩时即可部署起来。
⽀持的功能有:
数据开发IDE - Scriptis
⼯作流实时执⾏
信号功能和邮件功能
数据可视化 - Visualis
数据质量 - Qualitis(单机版)
⼯作流定时调度 - Azkaban(单机版)
Linkis管理台
三、基础环境准备
3.1、基础软件安装
下⾯的软件必装:
MySQL (5.5+),
ac97JDK (1.8.0_141以上),
Python(2.x和3.x都⽀持),
,
下⾯的服务必须可从本机访问:
Hadoop(2.7.2,Hadoop其他版本需⾃⾏编译Linkis)
Hive(1.2.1,Hive其他版本需⾃⾏编译Linkis)
Spark(⽀持2.0以上所有版本)
3.1.1、部署MySQL
a、下载MySQL的rpm包
wget sql/arch.rpm
b、进⾏repo安装
rpm -arch.rpm
c、进⼊/pos.d执⾏
yum install mysql-server
d、启动MySQL
systemctl start mysqld
e、查看MySQL初始密码
rep 'password' /var/log/mysqld.log
f、修改密码
1mysql -u root -p
2set global validate_password_policy=0;
3set global validate_password_length=1;
4ALTER USER 'root'@'localhost' IDENTIFIED BY 'root';
g、设置远程访问
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;
3.1.2、安装JDK
a、
b、进⾏repo安装
rpm -ivh jdk-8u241-linux-x64.rpm
c、配置环境变量,执⾏java -verbose查看jdk安装路径,编辑/etc/profile⽂件,添加⼀下内容,再执⾏source⽴即⽣效。
1JAVA_HOME=/usr/java/jdk1.8.0_241-amd64
2JRE_HOME=/usr/java/jdk1.8.0_241-amd64/jre
3PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
4CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
5export JAVA_HOME JRE_HOME PATH CLASSPATH
3.1.3、安装Python
因为本机已经⾃带python-2.7.5,python安装也⽐较简单,不在此处多加赘述。
3.1.4、安装Nginx
a、安装必要依赖
1yum -y install gcc gcc-c++
2yum -y install pcre pcre-devel
3yum -y install zlib zlib-devel
4yum -y install openssl openssl-devel
b、
c、解压源码包
tar -zxvf nginx-1.9. -C /usr/local
d、检查安装环境
1cd nginx-1.9.9
2./configure --prefix=/usr/local/nginx
e、编译安装
1make
2make install
f、配置nginx服务启动
vi /etc/rc.d/init.d/nginx
添加⼀下内容:
1#!/bin/sh
2# nginx - this script starts and stops the nginx daemin
3#
4# chkconfig: - 85 15
5# description: Nginx is an HTTP(S) server, HTTP(S) reverse \ 6# proxy and IMAP/POP3 proxy server
7# processname: nginx
8# config: /usr/local/nginx/f
9# pidfile: /usr/local/nginx/logs/nginx.pid
10# Source function library.
11. /etc/rc.d/init.d/functions
12# Source networking configuration.
13. /etc/sysconfig/network
14# Check that networking is up.
15[ "$NETWORKING" = "no" ] && exit 0
16nginx="/usr/local/nginx/sbin/nginx"
17prog=$(basename $nginx)
18NGINX_CONF_FILE="/usr/local/nginx/f"
19lockfile=/usr/local/nginx/sbin/nginx
20
21start() {
22 [ -x $nginx ] || exit 5
23 [ -f $NGINX_CONF_FILE ] || exit 6
24 echo -n $"Starting $prog: "
25 daemon $nginx -c $NGINX_CONF_FILE
26 retval=$?
27 echo
28 [ $retval -eq 0 ] && touch $lockfile
29 return $retval
30}
31
32stop() {
33 echo -n $"Stopping $prog: "
34 killproc $prog -QUIT
35 retval=$?
36 echo
37 [ $retval -eq 0 ] && rm -f $lockfile
38 return $retval
39}
39}
40
41restart() {
42 configtest || return $?
43 stop
44 start
45}
46
47reload() {
48 configtest || return $?
49 echo -n $"Reloading $prog: "
50 killproc $nginx -HUP
51 RETVAL=$?
52 echo
53}
54
55force_reload() {
56 restart
57}
58
59configtest() {
60 $nginx -t -c $NGINX_CONF_FILE
61}
62
63rh_status() {
64 status $prog
65}
66
67rh_status_q() {
68 rh_status >/dev/null 2>&1
69}
70
71case "$1" in
72 start)
73 rh_status_q && exit 0
74 $1
75 ;;
76 stop)
77 rh_status_q || exit 0
78 $1
79 ;;
80 restart|configtest)
81 $1
82 ;;
83 reload)
84 rh_status_q || exit 7
85 $1
86 ;;
87 force-reload)
88 force_reload
89 ;;
90 status)
91 rh_status
92 ;;
93 condrestart|try-restart)
94 rh_status_q || exit 0
95 ;;
96 *)
97
98 echo $"Usage: $0 {start|stop|status|restart|condrestart|try-restart|reload|force-reload|configtest}"
99 exit 2
100esac
chkconfig --add nginx
g、配置环境变量
因为DSS在安装过程中会检测nginx,因此需要配置⼀个环境变量,以应对检测。
export PATH=$PATH:/usr/local/nginx/sbin
注意:如果使⽤hadoop普通⽤户启动,需要授权普通⽤户使⽤systemctl,具体操作如下:
进⼊/usr/share/polkit-1/actions/org.freedesktop.systemd1.policy,将对应manae-units的defaults中的授权全部改为yes,然后执⾏systemctl restart polkit重启polkit
1<defaults>
2 <allow_any>yes</allow_any>
3 <allow_inactive>yes</allow_inactive>
4 <allow_active>yes</allow_active>
5</defaults>
3.1.5、安装hadoop
官⽅⽂档说,安装DSS的机器不要求必须安装Hadoop,但要求hdfs命令必须可⽤,如:hdfs dfs -ls /。我这⾥只有⼀台机器,就在本机上安装⼀个单机版的hadoop、hive和spark了。
a、,我这⾥使⽤的是⼀键部署安装包,hadoop版本被指定为2.7.2,其他版本的需要⾃⼰编译Linkis。
b、解压安装包
tar -zxvf hadoop-2.7. -C /usr/local
c、配置环境变量
1export HADOOP_HOME=/usr/local/hadoop
2export PATH=$PATH:$HADOOP_HOME/bin
d、修改hadoop-env.sh⽂件,新增以下内容。
export JAVA_HOME=/usr/java/jdk1.8.0_241-amd64
e、修改l⽂件,添加以下内容。
1 <property>
2 <name&p.dir</name>
3 <value>file:usr/local/hadoop</value>
4 <description>Abase for other temporary directories.</description>
5 </property>
6 <property>
7 <name>fs.defaultFS</name>
8 <value>hdfs://127.0.0.1:5001</value>
9 </property>
f、修改l⽂件,添加以下内容。
发布评论