Skip to content

Commit cd0b698

Browse files
yingyibiaoZeyuChen
andauthored
Fix deadlinks (#2230)
Co-authored-by: Zeyu Chen <[email protected]>
1 parent a847d88 commit cd0b698

File tree

14 files changed

+16
-16
lines changed

14 files changed

+16
-16
lines changed

applications/neural_search/recall/domain_adaptive_pretraining/data_tools/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -103,7 +103,7 @@ optional arguments:
103103
-h, --help show this help message and exit
104104
--model_name MODEL_NAME
105105
What model to use.
106-
必须设置,如:ernie-1.0, 可以参考已有的模型名称 https://github.com/PaddlePaddle/PaddleNLP/blob/develop/docs/model_zoo/transformers.rst
106+
必须设置,如:ernie-1.0, 可以参考已有的模型名称 https://paddlenlp.readthedocs.io/zh/latest/model_zoo/index.html#transformer
107107
--tokenizer_name {ErnieTokenizer,BertTokenizer,GPTTokenizer,GPTChineseTokenizer}
108108
What type of tokenizer to use.
109109
模型对应的tokenizer, 目前暂时只支持 Ernie,Bert,GPT

examples/benchmark/clue/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -598,8 +598,8 @@ python -u ./run_clue_classifier.py \
598598
另外,如需评估,传入参数 `--do_eval` 即可,如果只对读入的 checkpoint 进行评估不训练,则不需传入 `--do_train`
599599

600600
其中参数释义如下:
601-
- `model_name_or_path` 指示了 Fine-tuning 使用的具体预训练模型,可以是 PaddleNLP 提供的预训练模型,可以选择[Transformer预训练模型汇总](../../../docs/model_zoo/index.rst)中相对应的中文预训练权重。注意 CLUE 任务应选择中文预训练权重。
602601

602+
- `model_name_or_path` 指示了 Fine-tuning 使用的具体预训练模型,可以是 PaddleNLP 提供的预训练模型,可以选择[Transformer预训练模型汇总](https://paddlenlp.readthedocs.io/zh/latest/model_zoo/index.html#transformer) 中相对应的中文预训练权重。注意 CLUE 任务应选择中文预训练权重。
603603
- `task_name` 表示 Fine-tuning 的分类任务,当前支持 AFQMC、TNEWS、IFLYTEK、OCNLI、CMNLI、CSL、CLUEWSC2020。
604604
- `max_seq_length` 表示最大句子长度,超过该长度将被截断。
605605
- `batch_size` 表示每次迭代**每张卡**上的样本数目。

examples/benchmark/glue/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -52,7 +52,7 @@ python -m paddle.distributed.launch --gpus "0,1" run_glue.py \
5252
```
5353
其中参数释义如下:
5454
- `model_name_or_path` 指示了Fine-tuning使用的具体预训练模型,可以是PaddleNLP提供的预训练模型 或者 本地的预训练模型。如果使用本地的预训练模型,可以配置本地模型的目录地址,例如: /home/xx_model/,目录中需包含paddle预训练模型model_state.pdparams。
55-
如果使用PaddleNLP提供的预训练模型,可以选择`model_type`[Transformer预训练模型汇总](../../../docs/model_zoo/transformers.rst)中相对应的英文预训练权重。注意这里选择的模型权重要和上面配置的模型类型匹配,例如model_type 配置的是bert,则model_name_or_path只能选择bert相关的模型。另,glue任务应选择英文预训练权重。
55+
如果使用PaddleNLP提供的预训练模型,可以选择`model_type`[Transformer预训练模型汇总](https://paddlenlp.readthedocs.io/zh/latest/model_zoo/index.html#transformer) 中相对应的英文预训练权重。注意这里选择的模型权重要和上面配置的模型类型匹配,例如model_type 配置的是bert,则model_name_or_path只能选择bert相关的模型。另,glue任务应选择英文预训练权重。
5656
- `tokenizer_name_or_path` 指示了Fine-tuning使用的具体tokenizer,一般保持和model_name_or_path一致,也可以单独指定
5757
- `task_name` 表示 Fine-tuning 的任务,当前支持CoLA、SST-2、MRPC、STS-B、QQP、MNLI、QNLI、RTE。
5858
- `max_seq_length` 表示最大句子长度,超过该长度将被截断。

examples/dependency_parsing/ddparser/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -15,7 +15,7 @@
1515
依存句法分析任务通过分析句子中词语之间的依存关系来确定句子的句法结构,
1616
该项目是基于Paddle v2.1的[baidu/ddparser](https://github.com/baidu/DDParser)实现,
1717
模型结构为[Deep Biaffine Attention for Neural Dependency Parsing](https://arxiv.org/abs/1611.01734)
18-
同时本项目引入了[ERNIE](https://github.com/PaddlePaddle/PaddleNLP/blob/develop/docs/model_zoo/transformers.rst)系列预训练模型,
18+
同时本项目引入了[ERNIE](https://paddlenlp.readthedocs.io/zh/latest/model_zoo/index.html#transformer) 系列预训练模型,
1919
用户可以基于预训练模型finetune完成依存句法分析训练(参考以下[示例](#模型训练))。
2020

2121
## 快速开始

examples/information_extraction/DuEE/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -213,7 +213,7 @@ f1_score = (2 * P * R) / (P + R),其中
213213
## 进阶优化基线效果
214214

215215
基线采用的预训练模型为ERNIE,PaddleNLP提供了丰富的预训练模型,如BERT,RoBERTa,Electra,XLNet等
216-
参考[PaddleNLP预训练模型介绍](../../../docs/model_zoo/transformers.rst)
216+
参考[PaddleNLP预训练模型介绍](https://paddlenlp.readthedocs.io/zh/latest/model_zoo/index.html#transformer)
217217

218218
如可以选择RoBERTa large中文模型优化模型效果,只需更换模型和tokenizer即可无缝衔接。
219219

examples/information_extraction/DuEE/classifier.py

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -37,7 +37,7 @@
3737
# warnings.filterwarnings('ignore')
3838
"""
3939
For All pre-trained model(English and Chinese),
40-
Please refer to https://github.com/PaddlePaddle/PaddleNLP/blob/develop/docs/model_zoo/transformers.rst.
40+
Please refer to https://paddlenlp.readthedocs.io/zh/latest/model_zoo/index.html#transformer
4141
"""
4242

4343
# yapf: disable

examples/information_extraction/DuIE/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -125,7 +125,7 @@ python re_official_evaluation.py --golden_file=dev_data.json --predict_file=pre
125125
## 进阶优化基线效果
126126

127127
基线采用的预训练模型为ERNIE,PaddleNLP提供了丰富的预训练模型,如BERT,RoBERTa,Electra,XLNet等
128-
参考[PaddleNLP预训练模型介绍](../../../docs/model_zoo/transformers.rst)
128+
参考[PaddleNLP预训练模型介绍](https://paddlenlp.readthedocs.io/zh/latest/model_zoo/index.html#transformer)
129129

130130
如可以选择RoBERTa large中文模型优化模型效果,只需更换模型和tokenizer即可无缝衔接。
131131

examples/information_extraction/msra_ner/README.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -36,7 +36,7 @@ python -u ./train.py \
3636

3737
其中参数释义如下:
3838
- `model_type`: 指定模型的类型,可选的有 bert、ernie、ernie-ctm。
39-
- `model_name_or_path`: 指示了某种特定配置的模型,对应有其预训练模型和预训练时使用的 tokenizer,支持[PaddleNLP Transformer API](../../../docs/model_zoo/transformers.rst)中除ernie-gen以外的所有模型。若使用其他系列模型,需修改脚本导入相应的Task和Tokenizer。若模型相关内容保存在本地,这里也可以提供相应目录地址。
39+
- `model_name_or_path`: 指示了某种特定配置的模型,对应有其预训练模型和预训练时使用的 tokenizer,支持[PaddleNLP Transformer API](https://paddlenlp.readthedocs.io/zh/latest/model_zoo/index.html#transformer) 中除ernie-gen以外的所有模型。若使用其他系列模型,需修改脚本导入相应的Task和Tokenizer。若模型相关内容保存在本地,这里也可以提供相应目录地址。
4040
- `dataset`: 目前支持 msra_ner 和 peoples_daily_ner 数据集。
4141
- `max_seq_length`: 表示最大句子长度,超过该长度将被截断。
4242
- `batch_size`: 表示每次迭代**每张卡**上的样本数目。
@@ -118,7 +118,7 @@ python -u ./predict.py \
118118

119119
### 使用其它预训练模型
120120

121-
请参考[Transformer API文档](../../../docs/model_zoo/transformers.rst)了解更多PaddleNLP支持的预训练模型信息,并更换`--model_name_or_path`参数即可对比其他预训练模型的效果。
121+
请参考[Transformer API文档](https://paddlenlp.readthedocs.io/zh/latest/model_zoo/index.html#transformer) 了解更多PaddleNLP支持的预训练模型信息,并更换`--model_name_or_path`参数即可对比其他预训练模型的效果。
122122

123123
## Reference
124124

examples/sentiment_analysis/skep/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -122,7 +122,7 @@ model = paddlenlp.transformers.SkepForSequenceClassification.from_pretrained(
122122
tokenizer = paddlenlp.transformers.SkepTokenizer.from_pretrained(
123123
"skep_ernie_1.0_large_ch")
124124
```
125-
更多预训练模型,参考[transformers](../../../docs/model_zoo/transformers.rst)
125+
更多预训练模型,参考[transformers](https://paddlenlp.readthedocs.io/zh/latest/model_zoo/index.html#transformer)
126126

127127

128128
程序运行时将会自动进行训练,评估,测试。同时训练过程中会自动保存模型在指定的`save_dir`中。

examples/text_classification/pretrained_models/README.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -103,7 +103,7 @@ tokenizer = AutoTokenizer.from_pretrained('ernie-1.0-base-zh')
103103
model = AutoModelForSequenceClassification.from_pretrained('bert-base-chinese', num_class=2)
104104
tokenizer = AutoTokenizer.from_pretrained('bert-base-chinese')
105105
```
106-
更多预训练模型,参考[transformers](../../../docs/model_zoo/transformers.rst)
106+
更多预训练模型,参考[transformers](https://paddlenlp.readthedocs.io/zh/latest/model_zoo/index.html#transformer)
107107

108108

109109
程序运行时将会自动进行训练,评估,测试。同时训练过程中会自动保存模型在指定的`save_dir`中。

0 commit comments

Comments
 (0)