Replies: 21 comments
-
第一课笔记: |
Beta Was this translation helpful? Give feedback.
-
第一讲笔记链接: |
Beta Was this translation helpful? Give feedback.
-
第一节课程笔记连接(语雀): |
Beta Was this translation helpful? Give feedback.
-
书生.浦语大模型全链路开源体系授课老师
开源体系
增量续训
有监督微调
大模型的局限性
|
Beta Was this translation helpful? Give feedback.
-
第一节课笔记背景介绍2018年来,大模型取得快速发展,尤以2023年最为迅猛。相比较AI界之前研究的专业模型,大模型更注重解决通用问题,是人工智能发展的重要途径。 正式内容为迎合时代发展,提出了书生.浦语大模型全链路开源体系 此外,开源体系中还提供以下模块
总结《书生.浦语大模型全链路开源体系》打造了一个关于大模型的完整开源社区,从模型的开发到部署都有相应的工具,值得学习。 |
Beta Was this translation helpful? Give feedback.
-
结合业务工作对全流程的预训练和微调很感兴趣,希望后期深入了解。 |
Beta Was this translation helpful? Give feedback.
-
大概介绍了课程大纲跟目前的一些大模型的基础知识。 |
Beta Was this translation helpful? Give feedback.
-
笔记记录于:https://github.com/hui1feng/internLMlearn/blob/main/README.md |
Beta Was this translation helpful? Give feedback.
-
第一节课已听完,打卡 |
Beta Was this translation helpful? Give feedback.
-
第一节课打卡 |
Beta Was this translation helpful? Give feedback.
-
第一节课笔记书生·浦语大模型发展从 2023 年 6 月 7 日发布,随着不断发展,对大模型包括但不限于数据、多模态、应用、智能体、参数量、开源工具栈等一系列角度来发展。 其中包含 7B,20B,123B 参数量的三种模型。不同大小的模型可以应用的角度也不相同。不同的参数量大小能够表示训练所用的数据、支持的上下文长度、模型能力等方面。 同时,书生浦语模型能够在各种能力上达到非常好的性能,特别针对中文进行了优化,是国内少有的能够支持高性能·1中文对话的模型。 大模型如何应用?如果把大模型用到一些下游应用,我们要按如下角度来考虑:
书生·浦语全链条开源开放体系大模型全流程全链条体系包括数据、预训练、微调、部署、评测、应用。
数据书生万卷数据集包含了大量文档数据、2200 多万图像文本数据、1000 多个视频数据。能够支持从语言模型到多模态模型的的训练。同时,也可以应用其数据预训练自己的大模型。 对于该数据集,其中进行了许多精细化的处理,包括语言筛选、文本提取、格式标准化、数据过滤和清洗、多尺度去重和数据质量评估。 预训练训练框架兼容性强,能够支持 8 卡到千卡量级的训练,加速效率高。同时不需要接入主流 huggingface 生态。其中也对其进行了很多优化。 微调能够支持大模型的增量续训和有监督微调。同时支持 LoRA 微调。其中的 XTuner 也能够适配现有的主流框架以及算法,能够直接对接现有生态。 评测OpenCompass 能够从学科、语言、知识、理解、推理、安全几个维度来评测,使其更加客观。提供了许多测评的方法。 部署内存开销大、缓存要求高、请求数不确定、设备要求、系统吞吐量、加速生成。部署挑战上来说模型并行、低比特优化、Attention 优化、计算访存优化、Batching 应用能够直接调用动作,一站式的 Agent 设计和部署方案。 |
Beta Was this translation helpful? Give feedback.
-
第一节课已经听完,对大模型的历史和发展有了比较清洗的认识,同时对书生·浦语大模型开源体系有了比较清晰的认识,特别是对书生·浦语大模型开源体系中整个大模型的构建过程有了比较通透的理解,顺便打卡。 |
Beta Was this translation helpful? Give feedback.
-
Beta Was this translation helpful? Give feedback.
-
Beta Was this translation helpful? Give feedback.
-
第一课笔记(千字力作):https://mp.weixin.qq.com/s/nFMO1uZNKrCcOFzUmNDKOQ |
Beta Was this translation helpful? Give feedback.
-
Beta Was this translation helpful? Give feedback.
-
https://blog.csdn.net/2301_77286822/article/details/135378429?spm=1001.2014.3001.5501 |
Beta Was this translation helpful? Give feedback.
-
第一课笔记:https://g4w90egc30.feishu.cn/docx/IJLxd5TnyoQTwkxZ1tJcLajAnQe |
Beta Was this translation helpful? Give feedback.
-
第一节课笔记 https://vvgyb242x83.feishu.cn/wiki/IXYow1rdoihKY6kRbdJcnRZUnPg?from=from_copylink |
Beta Was this translation helpful? Give feedback.
-
《第一节课笔记》
2 书生·浦语大模型全链路开源开放体系 原文链接: |
Beta Was this translation helpful? Give feedback.
-
InternLM Lesson-1https://g4w90egc30.feishu.cn/docx/IJLxd5TnyoQTwkxZ1tJcLajAnQe?from=from_copylink |
Beta Was this translation helpful? Give feedback.
Uh oh!
There was an error while loading. Please reload this page.
Uh oh!
There was an error while loading. Please reload this page.
-
第一节课笔记(7班)👇
Beta Was this translation helpful? Give feedback.
All reactions