Skip to content

Commit 382296a

Browse files
committed
fixed all the links
1 parent b4490d8 commit 382296a

File tree

8 files changed

+57
-57
lines changed

8 files changed

+57
-57
lines changed

docs/localized/zh-CN/README.md

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -32,7 +32,7 @@ TensorFlow),让游戏开发者和业余爱好者能够轻松地
3232
**除了安装和使用说明外,如需更多信息,
3333
请参阅我们的[文档主页](docs/Readme.md)**如果您使用的
3434
是 v0.3 之前的 ML-Agents 版本,强烈建议您参考
35-
我们的[关于迁移到 v0.3 的指南](docs/Migrating-v0.3.md)
35+
我们的[关于迁移到 v0.3 的指南](/docs/Migrating-v0.3.md)
3636

3737
我们还发布了一系列与 ML-Agents 相关的博客文章:
3838
- reinforcement learning(强化学习)概念概述
@@ -53,8 +53,8 @@ TensorFlow),让游戏开发者和业余爱好者能够轻松地
5353

5454
ML-Agents 是一个开源项目,我们鼓励并欢迎大家贡献自己的力量。
5555
如果您想做出贡献,请务必查看我们的
56-
[贡献准则](CONTRIBUTING.md)
57-
[行为准则](CODE_OF_CONDUCT.md)
56+
[贡献准则](/CONTRIBUTING.md)
57+
[行为准则](/CODE_OF_CONDUCT.md)
5858

5959
您可以通过 Unity Connect 和 GitHub 与我们
6060
以及更广泛的社区进行交流:

docs/localized/zh-CN/docs/Getting-Started-with-Balance-Ball.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -234,7 +234,7 @@ Unity 场景:
234234
有了一个包含模拟环境的 Unity 可执行文件后,现在我们
235235
可以执行训练。为了首先确保您的环境和 Python
236236
API 能正常工作,您可以使用 `python/Basics`
237-
[Jupyter 笔记本](Background-Jupyter.md)
237+
[Jupyter 笔记本](/docs/Background-Jupyter.md)
238238
此笔记本包含了 API 功能的简单演练。
239239
`Basics` 中,务必将 `env_name` 设置为您先前构建的
240240
环境文件的名称。
@@ -284,7 +284,7 @@ python3 python/learn.py <env_file_path> --run-id=<run-identifier> --train
284284
从 TensorBoard 中,您将看到摘要统计信息:
285285

286286
* Lesson - 只有在进行
287-
[课程训练](Training-Curriculum-Learning.md)时才有意义。
287+
[课程训练](/docs/Training-Curriculum-Learning.md)时才有意义。
288288
3D Balance Ball 环境中不使用此项。
289289
* Cumulative Reward - 所有 agent 的平均累积场景奖励。
290290
在成功训练期间应该增大。

docs/localized/zh-CN/docs/Installation.md

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -31,12 +31,12 @@ Unity Assets。`python` 目录包含训练代码。
3131
为了使用 ML-Agents,您需要安装 Python 3 以及
3232
[要求文件](../python/requirements.txt)中列出的依赖项。
3333
一些主要的依赖项包括:
34-
- [TensorFlow](Background-TensorFlow.md)
35-
- [Jupyter](Background-Jupyter.md)
34+
- [TensorFlow](/docs/Background-TensorFlow.md)
35+
- [Jupyter](/docs/Background-Jupyter.md)
3636

3737
### Windows 用户
3838

39-
如果您是刚接触 Python 和 TensorFlow 的 Windows 用户,请遵循[此指南](Installation-Windows.md)来设置 Python 环境。
39+
如果您是刚接触 Python 和 TensorFlow 的 Windows 用户,请遵循[此指南](/docs/Installation-Windows.md)来设置 Python 环境。
4040

4141
### Mac 和 Unix 用户
4242

@@ -52,7 +52,7 @@ Unity Assets。`python` 目录包含训练代码。
5252
## 基于 Docker 的安装(测试阶段)
5353

5454
如果您想使用 Docker for ML-Agents,请按照
55-
[该指南](Using-Docker.md)进行操作。
55+
[该指南](/docs/Using-Docker.md)进行操作。
5656

5757
## Unity 包
5858

docs/localized/zh-CN/docs/Learning-Environment-Create-New.md

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -15,7 +15,7 @@
1515
3. 将一个或多个 Brain 对象作为 Academy 的子级添加到场景中。
1616
4. 实现 Agent 子类。Agent 子类定义了必要的代码供 agent 用于观测自身环境、执行指定动作以及计算用于强化训练的奖励。您还可以实现可选方法,从而在 agent 完成任务或任务失败时重置 agent。
1717
5. 将 Agent 子类添加到相应的游戏对象,通常是在场景内表示模拟中的 agent 的对象。必须为每个 Agent 对象分配一个 Brain 对象。
18-
6. 如果要进行训练,应将 Brain 类型设置为 External 并[执行训练过程](Training-ML-Agents.md)
18+
6. 如果要进行训练,应将 Brain 类型设置为 External 并[执行训练过程](/docs/Training-ML-Agents.md)
1919

2020
**注意:**如果您不熟悉 Unity,而本教程中未充分讲解 Editor 任务的情况下,请参阅 Unity 手册中的[了解界面](https://docs.unity3d.com/Manual/LearningtheInterface.html)
2121

@@ -408,12 +408,12 @@ public override void AgentAction(float[] vectorAction, string textAction)
408408
**Play** 运行场景,并用 WASD 键在平台上移动 agent。确保在 Unity Editor Console 窗口中没有显示任何错误,并且 agent 在到达目标或掉下平台时会重置。请注意,对于较复杂的调试,ML-Agents SDK 提供了一个方便的 Monitor 类,您可以使用该类轻松地在 Game 窗口中显示 agent 状态信息。
409409

410410
您可以执行一个额外的测试是,首先使用 `python/Basics`
411-
[Jupyter Notebook](Background-Jupyter.md)
411+
[Jupyter Notebook](/docs/Background-Jupyter.md)
412412
确保您的环境和 Python API 能正常工作。在 `Basics` 中,务必将
413413
`env_name` 设置为您生成的此环境对应的可执行文件的
414414
名称。
415415

416-
现在可以开始训练 Agent 了。为了准备进行训练,必须首先将 **Brain Type****Player** 更改为 **External**。此后的过程与[训练 ML-Agents](Training-ML-Agents.md) 中所述的过程相同。
416+
现在可以开始训练 Agent 了。为了准备进行训练,必须首先将 **Brain Type****Player** 更改为 **External**。此后的过程与[训练 ML-Agents](/docs/Training-ML-Agents.md) 中所述的过程相同。
417417

418418
## 回顾:场景布局
419419

docs/localized/zh-CN/docs/Learning-Environment-Design.md

Lines changed: 7 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -4,7 +4,7 @@ Reinforcement learning(强化学习)是一种人工智能技术,通过奖
44

55
ML-Agents 使用一种称为 [Proximal Policy Optimization (PPO)](https://blog.openai.com/openai-baselines-ppo/) 的 reinforcement learning(强化学习)技术。PPO 使用神经网络来逼近理想函数;这种理想函数将 agent 的观测结果映射为 agent 在给定状态下可以采取的最佳动作。ML-Agents PPO 算法在 TensorFlow 中实现,并在单独的 Python 过程中运行(通过一个socket与正在运行的 Unity 应用程序进行通信)。
66

7-
**注意:**如果您并非要专门研究机器学习和 reinforcement learning(强化学习)主题,只想训练 agent 完成任务,则可以将 PPO 训练视为一个_黑盒_。在 Unity 内部以及在 Python 训练方面有一些与训练相关的参数可进行调整,但您不需要深入了解算法本身就可以成功创建和训练 agent。[训练 ML-Agents](Training-ML-Agents.md)提供了执行训练过程的逐步操作程序。
7+
**注意:**如果您并非要专门研究机器学习和 reinforcement learning(强化学习)主题,只想训练 agent 完成任务,则可以将 PPO 训练视为一个_黑盒_。在 Unity 内部以及在 Python 训练方面有一些与训练相关的参数可进行调整,但您不需要深入了解算法本身就可以成功创建和训练 agent。[训练 ML-Agents](/docs/Training-ML-Agents.md)提供了执行训练过程的逐步操作程序。
88

99
##模拟和训练过程
1010

@@ -25,7 +25,7 @@ ML-Agents Academy 类按如下方式编排 agent 模拟循环:
2525

2626
要创建训练环境,请扩展 Academy 和 Agent 类以实现上述方法。`Agent.CollectObservations()``Agent.AgentAction()` 函数必须实现;而其他方法是可选的,即是否需要实现它们取决于您的具体情况。
2727

28-
**注意:**在这里用到的 Python API 也可用于其他目的。例如,借助于该 API,您可以将 Unity 用作您自己的机器学习算法的模拟引擎。请参阅 [Python API](Python-API.md) 以了解更多信息。
28+
**注意:**在这里用到的 Python API 也可用于其他目的。例如,借助于该 API,您可以将 Unity 用作您自己的机器学习算法的模拟引擎。请参阅 [Python API](/docs/Python-API.md) 以了解更多信息。
2929

3030
## 组织 Unity 场景
3131

@@ -47,17 +47,17 @@ Academy 对象会指挥多个 agent 的决策过程。一个场景中有且仅
4747

4848
Academy 基类还定义了若干可以在 Unity Editor Inspector 中设置的重要属性。对于训练而言,这些属性中最重要的是 `Max Steps`,它决定了每个训练场景的持续时间。Academy 的步骤计数器达到此值后,它将调用 `AcademyReset()` 函数来开始下一轮模拟。
4949

50-
请参阅 [Academy](Learning-Environment-Design-Academy.md) 以查看 Academy 属性及其用途的完整列表。
50+
请参阅 [Academy](/docs/Learning-Environment-Design-Academy.md) 以查看 Academy 属性及其用途的完整列表。
5151

5252
### Brain
5353

5454
Brain 内部封装了决策过程。Brain 对象必须放在 Hierarchy 视图中的 Academy 的子级。我们必须为每个 Agent 分配一个 Brain,但可以在多个 Agent 之间共享同一个 Brain。
5555

56-
当我们使用 Brain 类的时候不需要使用其子类,而应该直接使用 Brain 这个类。Brain 的行为取决于 brain 的类型。在训练期间,应将 agent 上连接的 Brain 的 Brain Type 设置为 **External**。要使用经过训练的模型,请将模型文件导入 Unity 项目,并将对应 Brain 的 Brain Type 更改为 **Internal**。请参阅 [Brain](Learning-Environment-Design-Brains.md) 以了解有关使用不同类型的 Brain 的详细信息。如果四种内置的类型不能满足您的需求,您可以扩展 CoreBrain 类以创建其它的 Brain 类型。
56+
当我们使用 Brain 类的时候不需要使用其子类,而应该直接使用 Brain 这个类。Brain 的行为取决于 brain 的类型。在训练期间,应将 agent 上连接的 Brain 的 Brain Type 设置为 **External**。要使用经过训练的模型,请将模型文件导入 Unity 项目,并将对应 Brain 的 Brain Type 更改为 **Internal**。请参阅 [Brain](/docs/Learning-Environment-Design-Brains.md) 以了解有关使用不同类型的 Brain 的详细信息。如果四种内置的类型不能满足您的需求,您可以扩展 CoreBrain 类以创建其它的 Brain 类型。
5757

58-
Brain 类有若干可以使用 Inspector 窗口进行设置的重要属性。对于使用 brain 的 agent,这些属性必须恰当。例如,`Vector Observation Space Size` 属性必须与 agent 创建的特征向量的长度完全匹配。请参阅 [Agent](Learning-Environment-Design-Agents.md) 以获取有关创建 agent 和正确设置 Brain 实例的信息。
58+
Brain 类有若干可以使用 Inspector 窗口进行设置的重要属性。对于使用 brain 的 agent,这些属性必须恰当。例如,`Vector Observation Space Size` 属性必须与 agent 创建的特征向量的长度完全匹配。请参阅 [Agent](/docs/Learning-Environment-Design-Agents.md) 以获取有关创建 agent 和正确设置 Brain 实例的信息。
5959

60-
请参阅 [Brain](Learning-Environment-Design-Brains.md) 以查看 Brain 属性的完整列表。
60+
请参阅 [Brain](/docs/Learning-Environment-Design-Brains.md) 以查看 Brain 属性的完整列表。
6161

6262
### Agent
6363

@@ -72,7 +72,7 @@ Agent 类代表场景中负责收集观测结果并采取动作的一个参与
7272

7373
您还必须确定 Agent 如何完成任务,以及当它超时后如何处理。agent 完成其任务(或彻底失败)后,您可以在 `AgentAction()` 函数中手动将 agent 设置为完成。您还可以将 agent 的 `Max Steps` 属性设置为正值,这样 agent 在执行了此数量的步骤后会认为自己已完成。Academy 达到自己的 `Max Steps` 计数后,会开始下一场景。如果将 agent 的 `ResetOnDone` 属性设置为 true,则 agent 可以在一个场景中多次尝试自己的任务。(在 `Agent.AgentReset()` 函数中可以设置 agent 的初始化逻辑,为下一次的任务做好准备。)
7474

75-
请参阅 [Agent](Learning-Environment-Design-Agents.md) 以详细了解如何编写一个你自己的 agent。
75+
请参阅 [Agent](/docs/Learning-Environment-Design-Agents.md) 以详细了解如何编写一个你自己的 agent。
7676

7777
##环境
7878

docs/localized/zh-CN/docs/Learning-Environment-Examples.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -11,7 +11,7 @@ Unity ML-Agents 中内置了一些搭建好的学习环境的示例,并且我
1111
页面。
1212

1313
如果您想提交自己的环境,请参阅我们的
14-
[贡献指南](../CONTRIBUTING.md)页面。
14+
[贡献指南](/CONTRIBUTING.md)页面。
1515

1616
## Basic
1717

docs/localized/zh-CN/docs/ML-Agents-Overview.md

Lines changed: 14 additions & 14 deletions
Original file line numberDiff line numberDiff line change
@@ -17,9 +17,9 @@ TensorFlow),让游戏开发者和业余爱好者能够轻松地
1717
您现在可能在脑海中会有非常不同的问题。
1818
为了让您更轻松地过渡到 ML-Agents,
1919
我们提供了多个后台页面,其中包括有关
20-
[Unity 引擎](Background-Unity.md)
21-
[机器学习](Background-Machine-Learning.md)
22-
[TensorFlow](Background-TensorFlow.md) 的概述和有用资源。如果您不熟悉 Unity 场景,不了解基本的机器学习概念,或者以前没有听说过 TensorFlow,**强烈**建议您浏览相关的背景知识页面。
20+
[Unity 引擎](/docs/Background-Unity.md)
21+
[机器学习](/docs/Background-Machine-Learning.md)
22+
[TensorFlow](/docs/Background-TensorFlow.md) 的概述和有用资源。如果您不熟悉 Unity 场景,不了解基本的机器学习概念,或者以前没有听说过 TensorFlow,**强烈**建议您浏览相关的背景知识页面。
2323

2424
此页面的其余部分深入介绍了 ML-Agents、包括其重要组件、
2525
支持的不同的训练模式以及这些训练模式对应的应用场景。读完后
@@ -178,7 +178,7 @@ External Communicator 的作用。在我们深入了解这些细节之前,
178178
Brain 收集的观测结果和奖励通过 External Communicator
179179
转发给 Python API。Python API 随后返回 Agent 需要采取的相应动作。
180180
* **Internal** - 使用嵌入式
181-
[TensorFlow](Background-TensorFlow.md) 模型进行决策。
181+
[TensorFlow](/docs/Background-TensorFlow.md) 模型进行决策。
182182
嵌入式 TensorFlow 模型包含了学到的 policy,Brain 直接使用
183183
此模型来确定每个 Agent 的动作。
184184
* **Player** - 使用键盘或控制器的实际输入进行
@@ -252,7 +252,7 @@ Internal Brain 中,以便为连接到该 Brain 的所有 Agent 生成
252252
的 Brain 类型都会设置为 External,并且场景中所有 Agent 的行为
253253
都将在 Python 中接受控制。
254254

255-
我们目前没有教程介绍这种模式,但您可以在[这里](Python-API.md)
255+
我们目前没有教程介绍这种模式,但您可以在[这里](/docs/Python-API.md)
256256
了解有关 Python API 的更多信息。
257257

258258
### Curriculum Learning(课程学习)
@@ -295,7 +295,7 @@ Academy 内设置自定义环境参数。因此,
295295
可以根据训练进度动态调整与难度或复杂性相关的
296296
环境要素(比如游戏对象)。
297297

298-
[使用 Curriculum Learning(课程学习)进行训练](Training-Curriculum-Learning.md)
298+
[使用 Curriculum Learning(课程学习)进行训练](/docs/Training-Curriculum-Learning.md)
299299
教程使用 **Wall Area** 示例环境介绍了此训练模式。
300300

301301
### Imitation Learning(模仿学习)
@@ -311,7 +311,7 @@ Academy 内设置自定义环境参数。因此,
311311
算法随后将会使用这些来自人类玩家的观测结果以及他们对应的动作来
312312
学习 policy。
313313

314-
[使用 Imitation Learning(模仿学习)进行训练](Training-Imitation-Learning.md)教程
314+
[使用 Imitation Learning(模仿学习)进行训练](/docs/Training-Imitation-Learning.md)教程
315315
使用 **Banana Collector** 示例环境介绍了此训练模式。
316316

317317
## 灵活的训练方案
@@ -362,7 +362,7 @@ agent 必须对事件作出反应的游戏,
362362
或 agent 可以采取持续时间不同的动作
363363
的游戏。在每一步决策与按需决策之间切换
364364
只需点击一下按钮即可实现。您可以在
365-
[此处](Learning-Environment-Design-Agents.md#on-demand-decision-making)了解更多关于按需决策功能的
365+
[此处](/docs/Learning-Environment-Design-Agents.md#on-demand-decision-making)了解更多关于按需决策功能的
366366
信息。
367367

368368
* **记忆增强 Agent** - 在某些情况下,
@@ -373,7 +373,7 @@ agent 必须学会记住过去才能做出
373373
([LSTM](https://en.wikipedia.org/wiki/Long_short-term_memory))
374374
的实现,使 agent 能够存储要在未来步骤中
375375
使用的记忆。您可以在
376-
[此处](Feature-Memory.md)了解有关在训练中启用 LSTM 的更多信息。
376+
[此处](/docs/Feature-Memory.md)了解有关在训练中启用 LSTM 的更多信息。
377377

378378
* **监控 Agent 的决策过程** - 由于 ML-Agents 中的通信
379379
是双向通道通信,因此我们在 Unity 中提供了一个 agent Monitor 类,
@@ -382,7 +382,7 @@ agent 必须学会记住过去才能做出
382382
的感知。通过利用作为可视化工具的 Unity 并实时提供
383383
这些输出,研究人员和开发人员可以更轻松地
384384
调试 agent 的行为。您可以在
385-
[此处](Feature-Monitor.md)了解更多关于使用 Monitor 类的信息。
385+
[此处](/docs/Feature-Monitor.md)了解更多关于使用 Monitor 类的信息。
386386

387387
* **复杂的视觉观测** - 在其他平台中,agent 的观测可能
388388
仅限于单个向量或图像,与之不同的是,ML-Agents 允许
@@ -391,7 +391,7 @@ agent 必须学会记住过去才能做出
391391
都会很有用,例如训练需要多个摄像头且摄像头具有
392392
不同视角的自动驾驶车辆,或可能需要整合空中视觉和
393393
第一人称视觉的导航 agent。您可以在
394-
[此处](Learning-Environment-Design-Agents.md#multiple-visual-observations)了解更多关于向 agent 添加视觉观测的
394+
[此处](/docs/Learning-Environment-Design-Agents.md#multiple-visual-observations)了解更多关于向 agent 添加视觉观测的
395395
信息。
396396

397397
* **Broadcasting** - 如前所述,默认情况下,External Brain 会将
@@ -404,18 +404,18 @@ agent 必须学会记住过去才能做出
404404
来通过示范的方式学习 agent 的 policy。
405405
不过,这对 Heuristic 和 Internal Brain 也有帮助,
406406
特别是在调试 agent 行为时。您可以在
407-
[此处](Learning-Environment-Design-Brains.md#using-the-broadcast-feature)了解更多关于使用 broadcasting 功能的
407+
[此处](/docs/Learning-Environment-Design-Brains.md#using-the-broadcast-feature)了解更多关于使用 broadcasting 功能的
408408
信息。
409409

410410
* **Docker 设置(测试功能)** - 为了便于在不直接安装
411411
Python 或 TensorFlow 的情况下设置 ML-Agents,
412412
我们提供了关于如何创建和运行 Docker 容器的
413-
[指南](Using-Docker.md)。由于渲染视觉观测的限制,
413+
[指南](/docs/Using-Docker.md)。由于渲染视觉观测的限制,
414414
该功能被标记为测试功能。
415415

416416
* **AWS 上的云训练** - 为了便于在 Amazon Web Services (AWS)
417417
机器上使用 ML-Agents,我们提供了一份
418-
[指南](Training-on-Amazon-Web-Service.md)
418+
[指南](/docs/Training-on-Amazon-Web-Service.md)
419419
让您了解如何设置 EC2 实例以及公共的预配置 Amazon
420420
Machine Image (AMI)。
421421

0 commit comments

Comments
 (0)