@@ -29,61 +29,63 @@ Linkix需要的命令工具(在正式安装前,脚本会自动检测这些
2929
3030下面的服务必须可从本机访问:
3131
32- - Hadoop(** 2.7.2,Hadoop其他版本需自行编译Linkis ** ) ,安装的机器必须支持执行 ``` hdfs dfs -ls / ``` 命令
32+ - Hadoop(** 2.7.2,Hadoop 其他版本需自行编译 Linkis ** ) ,安装的机器必须支持执行 ``` hdfs dfs -ls / ``` 命令
3333
34- - Hive(** 2.3.3,Hive其他版本需自行编译Linkis ** ),安装的机器必须支持执行``` hive -e "show databases" ``` 命令
34+ - Hive(** 2.3.3,Hive 其他版本需自行编译 Linkis ** ),安装的机器必须支持执行``` hive -e "show databases" ``` 命令
3535
3636- Spark(** 支持2.0以上所有版本** ) ,安装的机器必须支持执行``` spark-sql -e "show databases" ``` 命令
3737
3838
3939Tips:
4040
41- 如您是第一次安装Hadoop,单机部署Hadoop可参考 :[ Hadoop单机部署] ( https://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-common/SingleCluster.html ) ;分布式部署Hadoop可参考:[ Hadoop分布式部署] ( https://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-common/ClusterSetup.html ) 。
41+ 如您是第一次安装 Hadoop,单机部署 Hadoop 可参考 :[ Hadoop单机部署] ( https://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-common/SingleCluster.html ) ;分布式部署Hadoop可参考:[ Hadoop分布式部署] ( https://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-common/ClusterSetup.html ) 。
4242
43- 如您是第一次安装Hive ,可参考:[ Hive快速安装部署] ( https://cwiki.apache.org/confluence/display/Hive/GettingStarted ) 。
43+ 如您是第一次安装 Hive ,可参考:[ Hive快速安装部署] ( https://cwiki.apache.org/confluence/display/Hive/GettingStarted ) 。
4444
45- 如您是第一次安装Spark ,On Yarn模式可参考 :[ Spark on Yarn部署] ( http://spark.apache.org/docs/2.4.3/running-on-yarn.html ) 。
45+ 如您是第一次安装 Spark ,On Yarn 模式可参考 :[ Spark on Yarn部署] ( http://spark.apache.org/docs/2.4.3/running-on-yarn.html ) 。
4646
4747### b. 创建用户
4848
49-   ;  ;  ;  ;  ;  ;  ;  ; 例如: ** 部署用户是hadoop账号 ** (可以不是hadoop用户 ,但是推荐使用Hadoop的超级用户进行部署,这里只是一个示例)
49+   ;  ;  ;  ;  ;  ;  ;  ; 例如: ** 部署用户是 hadoop 账号 ** (可以不是 hadoop 用户 ,但是推荐使用Hadoop的超级用户进行部署,这里只是一个示例)
5050
51512 . 在所有需要部署的机器上创建部署用户,用于安装
5252
53- ``` bash
54- sudo useradd hadoop
53+ ``` shell script
54+ sudo useradd hadoop
5555```
5656
57- 3 . 因为Linkis的服务是以 sudo -u ${linux-user} 方式来切换引擎,从而执行作业,所以部署用户需要有 sudo 权限,而且是免密的。
57+ 3 . 因为 Linkis 的服务是以 ` sudo -u ${linux-user} ` 方式来切换引擎,从而执行作业,所以部署用户需要有 sudo 权限,而且是免密的。
5858
59- ``` bash
60- vi /etc/sudoers
59+ ``` shell script
60+ vi /etc/sudoers
6161```
6262
6363``` properties
6464 hadoop ALL =(ALL) NOPASSWD: NOPASSWD: ALL
6565```
6666
67- 4 . 确保部署 DSS 和 Linkis 的服务器可正常执行 hdfs 、 hive -e 和 spark-sql -e 等命令。在一键安装脚本中,会对组件进行检查。
67+ 4 . 确保部署 DSS 和 Linkis 的服务器可正常执行 ` hdfs dfs -ls ` 、 ` hive -e ` 和 ` spark-sql -e ` 等命令。在一键安装脚本中,会对组件进行检查。
6868
69- 5 . ** 如果您的Pyspark想拥有画图功能 ,则还需在所有安装节点,安装画图模块** 。命令如下:
69+ 5 . ** 如果您的 Pyspark 想拥有画图功能 ,则还需在所有安装节点,安装画图模块** 。命令如下:
7070
7171
72- ``` bash
72+ ``` shell script
7373python -m pip install matplotlib
7474```
7575
7676### c.安装准备
7777
78- 自行编译或者去组件release页面下载安装包:
78+ 自行编译或者去 release 页面下载安装包: [ wedatasphere-dss-x.x.x-dist.tar.gz ] ( https://github.com/WeBankFinTech/DataSphereStudio/releases )
7979
80- 2 . 下载安装包
80+ ** 请注意:为了能正常使用 Visualis1.0.0-RC1 和 Exchangis1.0.0-RC1,请去 releases 页面下载最新的一键安装部署包。 **
8181
82- - [ wedatasphere-linkis-x.x.x-dist.tar.gz] ( https://github.com/WeBankFinTech/Linkis/releases )
83- - [ wedatasphere-dss-x.x.x-dist.tar.gz] ( https://github.com/WeBankFinTech/DataSphereStudio/releases )
84- - [ wedatasphere-dss-web-x.x.x-dist.zip] ( https://github.com/WeBankFinTech/DataSphereStudio/releases )
82+ ** 请注意:为了能正常使用 Visualis1.0.0-RC1 和 Exchangis1.0.0-RC1,请去 releases 页面下载最新的一键安装部署包。**
8583
86- 3 . 下载 DSS & LINKIS 一键安装部署包,并解压。以下是一键安装部署包的层级目录结构:
84+ ** 如果您选择自行编译 Linkis,请确保编译的是 Linkis1.1.1。**
85+
86+ ** 如果您选择自行编译 DSS,请确保已 pull 了 DSS ` master ` 分支的最新代码。**
87+
88+ DSS & LINKIS 一键安装部署包的层级目录结构如下:
8789
8890``` text
8991├── dss_linkis # 一键部署主目录
@@ -94,12 +96,14 @@ python -m pip install matplotlib
9496 ├── wedatasphere-linkis-x.x.x-dist.tar.gz # Linkis安装包
9597```
9698
99+ 如果您选择自行编译 Linkis 或 DSS,直接将上面的 Linkis 安装包或 DSS 安装包替换成编译后相关安装包即可。
100+
97101### d. 修改配置
98102
99-   ;  ;  ;  ;  ;  ;  ;  ; 打开conf /config.sh,按需修改相关配置参数:
103+   ;  ;  ;  ;  ;  ;  ;  ; 打开 ` conf /config.sh` ,按需修改相关配置参数:
100104
101- ``` bash
102- vi conf/config.sh
105+ ``` shell script
106+ vi conf/config.sh
103107```
104108
105109参数说明如下:
@@ -111,14 +115,14 @@ vi conf/config.sh
111115# deployUser=hadoop
112116
113117# 非必须不建议修改
114- # LINKIS_VERSION=1.0.2
118+ LINKIS_VERSION =1.1.1
115119
116120# ## DSS Web,本机安装无需修改
117121# DSS_NGINX_IP=127.0.0.1
118122# DSS_WEB_PORT=8088
119123
120124# 非必须不建议修改
121- # DSS_VERSION=1.0.0
125+ DSS_VERSION =1.0.1
122126
123127# # Java应用的堆栈大小。如果部署机器的内存少于8G,推荐128M;达到16G时,推荐至少256M;如果想拥有非常良好的用户使用体验,推荐部署机器的内存至少达到32G。
124128export SERVER_HEAP_SIZE =" 128M"
@@ -247,8 +251,8 @@ EMAIL_PROTOCOL=smtp
247251
248252请确保配置的数据库,安装机器可以正常访问,否则将会出现DDL和DML导入失败的错误。
249253
250- ``` bash
251- vi conf/db.sh
254+ ``` shell script
255+ vi conf/db.sh
252256```
253257
254258``` properties
@@ -271,8 +275,8 @@ HIVE_PASSWORD=xxx
271275
272276### 1. 执行安装脚本:
273277
274- ``` bash
275- sh bin/install.sh
278+ ``` shell script
279+ sh bin/install.sh
276280```
277281
278282### 2. 安装步骤
@@ -319,6 +323,6 @@ sh bin/start-all.sh
319323
320324  ;  ;  ;  ;  ; 在安装目录执行以下命令,停止所有服务:
321325
322- ``` bash
323- sh bin/stop-all.sh
326+ ``` shell script
327+ sh bin/stop-all.sh
324328```
0 commit comments