Skip to content

Commit 9a2bdb1

Browse files
Update the installation documentation.
1 parent f2b3123 commit 9a2bdb1

File tree

1 file changed

+35
-31
lines changed

1 file changed

+35
-31
lines changed

zh_CN/安装部署/DSS单机部署文档.md

Lines changed: 35 additions & 31 deletions
Original file line numberDiff line numberDiff line change
@@ -29,61 +29,63 @@ Linkix需要的命令工具(在正式安装前,脚本会自动检测这些
2929

3030
下面的服务必须可从本机访问:
3131

32-
- Hadoop(**2.7.2,Hadoop其他版本需自行编译Linkis**) ,安装的机器必须支持执行 ``` hdfs dfs -ls / ``` 命令
32+
- Hadoop(**2.7.2,Hadoop 其他版本需自行编译 Linkis**) ,安装的机器必须支持执行 ``` hdfs dfs -ls / ``` 命令
3333

34-
- Hive(**2.3.3,Hive其他版本需自行编译Linkis**),安装的机器必须支持执行``` hive -e "show databases" ```命令
34+
- Hive(**2.3.3,Hive 其他版本需自行编译 Linkis**),安装的机器必须支持执行``` hive -e "show databases" ```命令
3535

3636
- Spark(**支持2.0以上所有版本**) ,安装的机器必须支持执行```spark-sql -e "show databases" ```命令
3737

3838

3939
Tips:
4040

41-
如您是第一次安装Hadoop,单机部署Hadoop可参考[Hadoop单机部署](https://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-common/SingleCluster.html) ;分布式部署Hadoop可参考:[Hadoop分布式部署](https://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-common/ClusterSetup.html)
41+
如您是第一次安装 Hadoop,单机部署 Hadoop 可参考[Hadoop单机部署](https://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-common/SingleCluster.html) ;分布式部署Hadoop可参考:[Hadoop分布式部署](https://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-common/ClusterSetup.html)
4242

43-
如您是第一次安装Hive,可参考:[Hive快速安装部署](https://cwiki.apache.org/confluence/display/Hive/GettingStarted)
43+
如您是第一次安装 Hive,可参考:[Hive快速安装部署](https://cwiki.apache.org/confluence/display/Hive/GettingStarted)
4444

45-
如您是第一次安装Spark,On Yarn模式可参考[Spark on Yarn部署](http://spark.apache.org/docs/2.4.3/running-on-yarn.html)
45+
如您是第一次安装 Spark,On Yarn 模式可参考[Spark on Yarn部署](http://spark.apache.org/docs/2.4.3/running-on-yarn.html)
4646

4747
### b. 创建用户
4848

49-
        例如: **部署用户是hadoop账号**可以不是hadoop用户,但是推荐使用Hadoop的超级用户进行部署,这里只是一个示例)
49+
        例如: **部署用户是 hadoop 账号**可以不是 hadoop 用户,但是推荐使用Hadoop的超级用户进行部署,这里只是一个示例)
5050

5151
2. 在所有需要部署的机器上创建部署用户,用于安装
5252

53-
```bash
54-
sudo useradd hadoop
53+
```shell script
54+
sudo useradd hadoop
5555
```
5656

57-
3. 因为Linkis的服务是以 sudo -u ${linux-user} 方式来切换引擎,从而执行作业,所以部署用户需要有 sudo 权限,而且是免密的。
57+
3. 因为 Linkis 的服务是以 `sudo -u ${linux-user}` 方式来切换引擎,从而执行作业,所以部署用户需要有 sudo 权限,而且是免密的。
5858

59-
```bash
60-
vi /etc/sudoers
59+
```shell script
60+
vi /etc/sudoers
6161
```
6262

6363
```properties
6464
hadoop ALL=(ALL) NOPASSWD: NOPASSWD: ALL
6565
```
6666

67-
4. 确保部署 DSS 和 Linkis 的服务器可正常执行 hdfs hive -e 和 spark-sql -e 等命令。在一键安装脚本中,会对组件进行检查。
67+
4. 确保部署 DSS 和 Linkis 的服务器可正常执行 `hdfs dfs -ls``hive -e``spark-sql -e` 等命令。在一键安装脚本中,会对组件进行检查。
6868

69-
5. **如果您的Pyspark想拥有画图功能,则还需在所有安装节点,安装画图模块**。命令如下:
69+
5. **如果您的 Pyspark 想拥有画图功能,则还需在所有安装节点,安装画图模块**。命令如下:
7070

7171

72-
```bash
72+
```shell script
7373
python -m pip install matplotlib
7474
```
7575

7676
### c.安装准备
7777

78-
自行编译或者去组件release页面下载安装包:
78+
自行编译或者去 release 页面下载安装包: [wedatasphere-dss-x.x.x-dist.tar.gz](https://github.com/WeBankFinTech/DataSphereStudio/releases)
7979

80-
2. 下载安装包
80+
**请注意:为了能正常使用 Visualis1.0.0-RC1 和 Exchangis1.0.0-RC1,请去 releases 页面下载最新的一键安装部署包。**
8181

82-
- [wedatasphere-linkis-x.x.x-dist.tar.gz](https://github.com/WeBankFinTech/Linkis/releases)
83-
- [wedatasphere-dss-x.x.x-dist.tar.gz](https://github.com/WeBankFinTech/DataSphereStudio/releases)
84-
- [wedatasphere-dss-web-x.x.x-dist.zip](https://github.com/WeBankFinTech/DataSphereStudio/releases)
82+
**请注意:为了能正常使用 Visualis1.0.0-RC1 和 Exchangis1.0.0-RC1,请去 releases 页面下载最新的一键安装部署包。**
8583

86-
3. 下载 DSS & LINKIS 一键安装部署包,并解压。以下是一键安装部署包的层级目录结构:
84+
**如果您选择自行编译 Linkis,请确保编译的是 Linkis1.1.1。**
85+
86+
**如果您选择自行编译 DSS,请确保已 pull 了 DSS `master` 分支的最新代码。**
87+
88+
DSS & LINKIS 一键安装部署包的层级目录结构如下:
8789

8890
```text
8991
├── dss_linkis # 一键部署主目录
@@ -94,12 +96,14 @@ python -m pip install matplotlib
9496
├── wedatasphere-linkis-x.x.x-dist.tar.gz # Linkis安装包
9597
```
9698

99+
如果您选择自行编译 Linkis 或 DSS,直接将上面的 Linkis 安装包或 DSS 安装包替换成编译后相关安装包即可。
100+
97101
### d. 修改配置
98102

99-
        打开conf/config.sh,按需修改相关配置参数:
103+
        打开 `conf/config.sh`,按需修改相关配置参数:
100104

101-
```bash
102-
vi conf/config.sh
105+
```shell script
106+
vi conf/config.sh
103107
```
104108

105109
参数说明如下:
@@ -111,14 +115,14 @@ vi conf/config.sh
111115
# deployUser=hadoop
112116

113117
# 非必须不建议修改
114-
# LINKIS_VERSION=1.0.2
118+
LINKIS_VERSION=1.1.1
115119

116120
### DSS Web,本机安装无需修改
117121
#DSS_NGINX_IP=127.0.0.1
118122
#DSS_WEB_PORT=8088
119123

120124
# 非必须不建议修改
121-
#DSS_VERSION=1.0.0
125+
DSS_VERSION=1.0.1
122126

123127
## Java应用的堆栈大小。如果部署机器的内存少于8G,推荐128M;达到16G时,推荐至少256M;如果想拥有非常良好的用户使用体验,推荐部署机器的内存至少达到32G。
124128
export SERVER_HEAP_SIZE="128M"
@@ -247,8 +251,8 @@ EMAIL_PROTOCOL=smtp
247251

248252
请确保配置的数据库,安装机器可以正常访问,否则将会出现DDL和DML导入失败的错误。
249253

250-
```bash
251-
vi conf/db.sh
254+
```shell script
255+
vi conf/db.sh
252256
```
253257

254258
```properties
@@ -271,8 +275,8 @@ HIVE_PASSWORD=xxx
271275

272276
### 1. 执行安装脚本:
273277

274-
```bash
275-
sh bin/install.sh
278+
```shell script
279+
sh bin/install.sh
276280
```
277281

278282
### 2. 安装步骤
@@ -319,6 +323,6 @@ sh bin/start-all.sh
319323

320324
     在安装目录执行以下命令,停止所有服务:
321325

322-
```bash
323-
sh bin/stop-all.sh
326+
```shell script
327+
sh bin/stop-all.sh
324328
```

0 commit comments

Comments
 (0)