File tree Expand file tree Collapse file tree 1 file changed +61
-0
lines changed
Expand file tree Collapse file tree 1 file changed +61
-0
lines changed Original file line number Diff line number Diff line change 1+ # DataSphere Studio 新增用户的方式
2+
3+ > DSS 默认只提供了管理员账号,用户登录鉴权依托于 Linkis 的 LDAP 用户登录认证体系,本文将详细介绍如何新增一个全新的 DSS 用户。
4+
5+ ## 一、基本介绍
6+
7+ DSS 超级管理员的用户名为部署用户名,如部署用户为 hadoop,则管理员的用户名和密码为 hadoop/hadoop,具体用户可在 [ DSS单机部署文档] ( ../安装部署/DSS&Linkis一键部署文档单机版.md ) 查看。
8+
9+ 新增一个 DSS 用户主要分为以下几步:
10+
11+ - 新增 LDAP 用户
12+ - 为新用户完善环境信息
13+
14+ ## 二、新增 LDAP 用户
15+
16+ DSS 超级管理员可以在首页创建部门和用户,建立公司的层级及人员管理体系,创立的部门和用户。如下图所示:
17+
18+ ![ 超级管理员首页] ( images/超级管理员功能.png )
19+
20+ #### 创建部门和用户:
21+
22+ 在超级管理员首页点击【管理台】,进入管理台页面。
23+
24+ 超级管理员可以新建、修改和删除部门(请注意:部门层级最多可建立四级,包括元公司在内),元公司无法删除,仅可修改信息。
25+
26+ 同时,超级管理员可以进行用户的新建,修改和用户密码重置。
27+
28+ 如下图所示:
29+
30+ ![ 创建部门和用户] ( images/创建部门和用户.png )
31+
32+ 当您在页面创建一个用户后,DSS 后台会自动请求 LDAP,为您在 LDAP 中创建一个同名用户。
33+
34+ ## 三、为新用户完善环境信息
35+
36+ 1 . 由于 DSS & Linkis 做了自上而下的多租户隔离,为了使登录的用户可正常使用 DSS,还需在 Linux 服务器上面创建对应的 Linux 用户,具体步骤如下:
37+
38+ - 在所有Linkis & DSS 服务器上创建对应 Linux 用户。
39+ - 如果使用了 Hadoop,还需在 Hadoop 的 NameNode 创建对应 Linux 用户。
40+ - 保证 Linkis & DSS 服务器上的 Linux 用户,可正常使用 ` hdfs dfs -ls / ` 等命令,同时该用户需要能正常执行 ` spark-sql -e ` 和 ` hive -e ` 等 shell 命令。
41+ - 由于每个用户的工作空间严格隔离,您还需为该用户创建工作空间和 HDFS 目录,如下:
42+
43+ ``` shell script
44+ # # 创建用户工作空间目录和授权
45+ mkdir $WORKSPACE_USER_ROOT_PATH /${NEW_USER}
46+ chmod 750 $WORKSPACE_USER_ROOT_PATH /${NEW_USER}
47+
48+ # # 创建用户HDFS目录和授权
49+ hdfs dfs -mkdir $HDFS_USER_ROOT_PATH /${NEW_USER}
50+ hdfs dfs -chown ${NEW_USER} :${NEW_USER} $HDFS_USER_ROOT_PATH /${NEW_USER}
51+ hdfs dfs -chmod 750 $HDFS_USER_ROOT_PATH /${NEW_USER}
52+ ```
53+
54+ ` WORKSPACE_USER_ROOT_PATH ` 和 ` HDFS_USER_ROOT_PATH ` 是您一键安装 DSS 时,设置的工作空间和 HDFS 根路径。
55+
56+ 如果您没有设置,则默认为:
57+
58+ ``` shell script
59+ WORKSPACE_USER_ROOT_PATH=file:///tmp/linkis
60+ HDFS_USER_ROOT_PATH=hdfs:///tmp/linkis
61+ ```
You can’t perform that action at this time.
0 commit comments