Skip to content

Commit 580f7b9

Browse files
📝 更新Vision Transformer文档,删除模型微调部分并优化内容
- 在Vision Transformer文档中,修正了文本格式,提升了可读性。 - 删除了与模型微调相关的冗余文档,简化了内容结构。 - 在YOLO文档中增加了关于直接应用预构建模型的提示,增强了实用性。
1 parent f895c75 commit 580f7b9

File tree

3 files changed

+7
-2
lines changed

3 files changed

+7
-2
lines changed
Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -4,6 +4,9 @@ title: 模型微调
44
---
55

66
模型微调(Fine-Tuning) 是指在一个预训练的基础模型上,使用特定领域或特定任务的数据进行进一步训练,以使模型能够在特定任务上表现得更好。例如对计算机科学的名词翻译进行微调,可以提高翻译的准确性。
7+
:::info
8+
把模型想象为一个固定容量的大脑,脑容量是固定的,通过微调让它对A印象深刻,它就会淡忘B。
9+
:::
710

811
LLaMA-Factory 是基于 LLaMA 的模型微调框架,支持 LoRA 微调、冻结层微调、全量微调。既可以通过 WebUI 微调,也可以通过命令行微调。
912

docs/docs/机器学习/序列处理/Vision Transformer.mdx

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -5,7 +5,7 @@ title: Vision Transformer
55

66
首次成功将 Transformer 架构(原用于 NLP)应用于图像分类任务,挑战了 CNN 在计算机视觉领域的主导地位。
77

8-
ViT 的成功是深度学习领域方法论的一次重大转变,标志着**“大一统”**架构(即 Transformer)开始统治 NLP 和 CV 两个领域。
8+
ViT 的成功是深度学习领域方法论的一次重大转变,标志着“大一统”架构(即 Transformer)开始统治 NLP 和 CV 两个领域。
99

1010
:::info
1111
《An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale》在 2020 年及之后发表的论文中,谷歌学术总引用次数排名第1。

docs/docs/机器学习/网格数据/YOLO.mdx

Lines changed: 3 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -12,4 +12,6 @@ YOLO 和 PyTorch 区别
1212
- PyTorch 是工具:它提供了一套完整的工具箱,让你能自己设计、构建、训练和使用神经网络。这个工具箱里包含了各种“零件”,比如张量操作、自动求导、神经网络层、优化器等等。
1313

1414
- YOLO 是成品:它是一种已经设计好、训练好的神经网络模型。YOLO 使用 PyTorch 工具箱里的零件,通过巧妙地组合,最终制造出了一款专门用来做“目标检测”的成品。
15-
:::
15+
:::
16+
17+
如果你已经忘掉了机器学习的公式和调优,请直接从YOLO开始,应用最先进的预构建模型。

0 commit comments

Comments
 (0)