1
- # 千言:面向事实一致性的生成评测比赛baseline
1
+ # 千言:面向事实一致性的生成评测比赛基线
2
2
3
3
## 比赛简介
4
4
5
5
自然语言生成旨在让机器能够像人一样使用自然语言进行表达和交互,它是人工智能领域重要的前沿课题,近年来受到学术界和工业界广泛关注。
6
6
7
7
随着神经网络生成模型特别是预训练语言模型的迅速发展,机器生成文本的可读性和流畅性不断提升。然而,自动生成的文本中依然经常出现不符合原文或背景的错误事实描述,这种生成的事实一致性问题是自然语言生成进行落地应用的主要障碍之一,并逐渐受到研究学者的关注。鉴于当前国内外关于事实一致性的生成评测比赛十分匮乏,为了促进自然语言生成的技术发展和实际应用,我们计划组织面向事实一致性的生成评测比赛。
8
8
9
- 在此比赛中 ,我们将提供三个对事实一致性有较高要求的生成任务,包括文案生成、摘要生成和问题生成。同时,在系统评价中,我们将结合文本流畅性和事实一致性两项指标综合评估参赛生成系统的水平。通过这样的任务设定和评价方式,此评测将有助于研究者和开发者更多关注自然语言生成的事实一致性难题,并为大家提供学术交流平台,从而进一步提升自然语言生成的研究水平,推动相关技术的应用发展。
9
+ 在 [ 此比赛 ] ( https://aistudio.baidu.com/aistudio/competition/detail/105 ) 中 ,我们将提供三个对事实一致性有较高要求的生成任务,包括文案生成、摘要生成和问题生成。同时,在系统评价中,我们将结合文本流畅性和事实一致性两项指标综合评估参赛生成系统的水平。通过这样的任务设定和评价方式,此评测将有助于研究者和开发者更多关注自然语言生成的事实一致性难题,并为大家提供学术交流平台,从而进一步提升自然语言生成的研究水平,推动相关技术的应用发展。
10
10
11
11
本比赛得到中国中文信息学会自然语言生成专业委员会(筹)支持,将在2021年11月7日首届中国自然语言生成大会(CCNLG-2021)召开评测研讨会,并在大会上对获奖团队颁奖。
12
12
13
+ ## 模型简介
14
+ 本次比赛提供的基线系统,基于百度提出的ERNIE-UNIMO统一模态预训练框架。在本次比赛的三个文本生成任务中,我们基于本基线使用的模型是UNIMO-text,是基于[ ERNIE-UNIMO] ( https://arxiv.org/pdf/2012.15409.pdf ) 框架在文本数据上预训练得到模型。
13
15
14
16
## 快速开始
15
17
16
18
### 数据准备
17
19
18
- 比赛使用三个任务数据集测试参赛系统的生成能力,包括文案生成、摘要生成和问题生成 :
20
+ 比赛使用三个任务数据集测试参赛系统的生成能力,包括文案生成(AdvertiseGen)、摘要生成(LCSTS_new)和问题生成(DuReaderQG) :
19
21
20
22
- 文案生成根据结构化的商品信息生成合适的广告文案;
21
23
- 摘要生成是为输入文档生成简洁且包含关键信息的简洁文本;
22
24
- 问题生成则是根据给定段落以及答案生成适合的问题。
23
25
26
+ 为了方便用户快速使用基线,PaddleNLP Dataset API内置了数据集,一键即可完成数据集加载,示例代码如下:
27
+
28
+ ``` python
29
+ from paddlenlp.datasets import load_dataset
30
+ train_ds, dev_ds = load_dataset(' dureader_qg' , splits = (' train' , ' dev' ))
31
+ ```
32
+
33
+ ### 代码结构说明
34
+
35
+ 以下是本项目主要代码结构及说明:
36
+
37
+ ``` text
38
+ .
39
+ ├── run_gen.py # 模型finetune主程序入口
40
+ ├── gen_utils.py # 定义参数及一些工具函数
41
+ ├── scripts # 三个任务的基线训练脚本
42
+ └── README.md # 文档说明
43
+ ```
24
44
25
45
### 模型训练
26
46
27
- 运行如下命令即可在样例训练集上进行finetune,并在样例验证集上进行验证
47
+ 运行如下命令即可在样例训练集上进行finetune,并在样例验证集上进行验证。也可以使用./scripts目录下面的训练脚本分别启动三个任务的训练。
28
48
29
49
``` shell
30
50
# GPU启动,参数`--gpus`指定训练所用的GPU卡号,可以是单卡,也可以多卡
@@ -47,9 +67,11 @@ python -m paddle.distributed.launch --gpus "0" --log_dir ./log run_gen.py \
47
67
--device=gpu
48
68
```
49
69
50
- 其中参数释义如下 :
70
+ 关键参数释义如下 :
51
71
- ` gpus ` 指示了训练所用的GPU卡号。
52
- - ` dataset_name ` 数据集名称,dureader_qg、advertisegen和lcsts_new分别对应问题生成、文案生成和摘要生成三个任务。
72
+ - ` dataset_name ` 数据集名称,` dureader_qg ` 、` advertisegen ` 和` lcsts_new ` 分别对应问题生成、文案生成和摘要生成三个任务。
73
+ - ` train_file ` 本地训练数据地址,数据格式必须与` dataset_name ` 所指数据集格式相同。
74
+ - ` predict_file ` 本地测试数据地址,数据格式必须与` dataset_name ` 所指数据集格式相同。
53
75
- ` model_name_or_path ` 指示了finetune使用的具体预训练模型,可以是PaddleNLP提供的预训练模型,或者是本地的预训练模型。如果使用本地的预训练模型,可以配置本地模型的目录地址,例如: ./checkpoints/model_xx/,目录中需包含paddle预训练模型model_state.pdparams。如果使用PaddleNLP提供的预训练模型,可以选择下面其中之一。
54
76
55
77
| PaddleNLP提供的预训练模型 |
@@ -68,6 +90,8 @@ python -m paddle.distributed.launch --gpus "0" --log_dir ./log run_gen.py \
68
90
- ` warmup_propotion ` 表示学习率逐渐升高到基础学习率(即上面配置的learning_rate)所需要的迭代数占总步数的比例,最早的使用可以参考[ 这篇论文] ( https://arxiv.org/pdf/1706.02677.pdf ) 。
69
91
- ` max_seq_len ` 模型输入序列的最大长度。
70
92
- ` max_target_len ` 模型训练时标签的最大长度。
93
+ - ` min_dec_len ` 模型生成序列的最小长度。
94
+ - ` max_dec_len ` 模型生成序列的最大长度。
71
95
- ` do_train ` 是否进行训练。
72
96
- ` do_predict ` 是否进行预测,在验证集上会自动评估。
73
97
- ` device ` 表示使用的设备,从gpu和cpu中选择。
@@ -81,7 +105,6 @@ python -m paddle.distributed.launch --gpus "0" --log_dir ./log run_gen.py \
81
105
├── model_8000
82
106
│ ├── model_config.json
83
107
│ ├── model_state.pdparams
84
- │ ├── spm.model
85
108
│ ├── tokenizer_config.json
86
109
│ └── vocab.txt
87
110
└── ...
@@ -91,54 +114,27 @@ python -m paddle.distributed.launch --gpus "0" --log_dir ./log run_gen.py \
91
114
92
115
### 模型预测
93
116
94
- 运行如下命令即可在样例测试集上进行测试
117
+ 运行下方脚本可以使用训练好的模型进行预测。
95
118
96
119
``` shell
97
120
export CUDA_VISIBLE_DEVICES=0
98
- # GPU启动,预测仅支持单卡
99
- python infer.py \
100
- --model_name_or_path=./checkpoints/model_80000 \
101
- --test_data_path=./datasets/test.txt \
102
- --output_path=./predict.txt \
103
- --logging_steps=500 \
104
- --seed=2021 \
105
- --batch_size=4 \
106
- --min_dec_len=1 \
107
- --max_dec_len=64 \
108
- --num_samples=20 \
109
- --decode_strategy=sampling \
110
- --top_k=5 \
121
+ python run_gen.py \
122
+ --dataset_name=dureader_qg \
123
+ --model_name_or_path=your_model_path \
124
+ --logging_steps=100 \
125
+ --batch_size=16 \
126
+ --max_seq_len=512 \
127
+ --max_target_len=30 \
128
+ --do_predict \
129
+ --max_dec_len=20 \
130
+ --min_dec_len=3 \
111
131
--device=gpu
112
132
```
113
133
114
- 其中参数释义如下:
115
- - ` model_name_or_path ` 指示了finetune使用的具体预训练模型,可以是PaddleNLP提供的预训练模型,或者是本地的预训练模型。如果使用本地的预训练模型,可以配置本地模型的目录地址,例如: ./checkpoints/model_xx/,目录中需包含paddle预训练模型model_state.pdparams。如果使用PaddleNLP提供的预训练模型,可以选择下面其中之一。
116
-
117
- | PaddleNLP提供的预训练模型 |
118
- | ---------------------------------|
119
- | unified_transformer-12L-cn |
120
- | unified_transformer-12L-cn-luge |
121
-
122
- - ` test_data_path ` 表示预测集文件路径。
123
- - ` output_path ` 表示预测结果的保存路径。
124
- - ` logging_steps ` 表示日志打印间隔。
125
- - ` seed ` 表示随机数生成器的种子。
126
- - ` batch_size ` 表示每次迭代** 每张卡** 上的样本数目。
127
- - ` min_dec_len ` 表示预测生成的句子的最小长度。
128
- - ` max_dec_len ` 表示预测生成的句子的最大长度。
129
- - ` num_samples ` 表示每条样本生成的句子的数量。对于每条样本,模型会生成` num_samples ` 个句子,根据每个句子的概率得分进行排序,得分最高的句子作为最终的生成结果。
130
- - ` decode_strategy ` 表示预测解码时采取的策略,可选"sampling"、"greedy_search"和"beam_search"之一。
131
- - ` top_k ` 表示采用"sampling"解码策略时,token的概率按从大到小排序,生成的token只从前` top_k ` 个中进行采样。
132
- - ` device ` 表示训练使用的设备。
133
-
134
- 参数详情和参数的默认值请参考` args.py ` 。
135
-
136
134
程序运行结束后会将预测结果保存在` output_path ` 中。将预测结果准备成比赛官网要求的格式,提交评估即可得评估结果。
137
135
138
- 采用不同的模型在样例测试集上有如下结果 :
136
+ Finetuned baseline的模型在各任务验证集上有如下结果(指标为BLEU-4) :
139
137
140
- | model_name_or_path | F1 | BLEU1 / BLEU2 | DISTINCT1 / DISTINCT2 |
138
+ | model_name | LCSTS_new | DuReaderQG | AdvertiseGen |
141
139
| :-----------------------------: | :---: | :-----------: | :-------------------: |
142
- | unified_transformer-12L-cn | 10.62 | 0.070 / 0.022 | 0.065 / 0.304 |
143
- | unified_transformer-12L-cn-luge | 33.11 | 0.245 / 0.157 | 0.074 / 0.238 |
144
- | ./checkpoints/model_80000 | 32.38 | 0.239 / 0.150 | 0.070 / 0.219 |
140
+ | finetuned unimo-text-1.0 | 18.82 | 39.78 | 10.03 |
0 commit comments