Skip to content

Commit 12acf75

Browse files
authored
Merge pull request #1093 from kaifeng/patch-1
Minor wording
2 parents c8a2a47 + 79b885a commit 12acf75

File tree

1 file changed

+2
-2
lines changed
  • chapters/zh-CN/chapter1

1 file changed

+2
-2
lines changed

chapters/zh-CN/chapter1/4.mdx

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -77,7 +77,7 @@
7777

7878
这只是显示了一支团队领导的(非常大的)模型项目,该团队试图减少预训练对环境的影响。如果为了获得最佳超参数而进行大量试验,所造成的碳排放当量会更高。
7979

80-
想象一下,如果每次一个研究团队、一个学生组织或一家公司想要训练一个模型,都从头开始训练的。这将导致巨大的、不必要的浪费!
80+
想象一下,如果每次一个研究团队、一个学生组织或一家公司想要训练一个模型,都从头开始训练。这将导致巨大的、不必要的浪费!
8181

8282
这就是为什么共享语言模型至关重要:共享经过训练的权重,当遇见新的需求时在预训练的权重之上进行微调,可以降低训练模型训练的算力和时间消耗,降低全球的总体计算成本和碳排放。
8383

@@ -87,7 +87,7 @@
8787

8888
<Youtube id="BqqfQnyjmgg" />
8989

90-
预训练(Pretraining)是是指从头开始训练模型:随机初始化权重,在没有任何先验知识的情况下开始训练。
90+
预训练(Pretraining)是指从头开始训练模型:随机初始化权重,在没有任何先验知识的情况下开始训练。
9191

9292
<div class="flex justify-center">
9393
<img class="block dark:hidden" src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/pretraining.svg" alt="The pretraining of a language model is costly in both time and money."/>

0 commit comments

Comments
 (0)