Skip to content

Commit c440c7e

Browse files
📝
1 parent f3f30da commit c440c7e

File tree

1 file changed

+10
-1
lines changed

1 file changed

+10
-1
lines changed

docs/docs/机器学习/大语言模型部署/模型社区.md

Lines changed: 10 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -132,4 +132,13 @@ while True:
132132

133133
- INT8 (8-bit Integer):INT8通过将模型权重量化为8位整数,显著减少存储和计算需求,适用于大部分推理任务,但会带来一定的精度损失。
134134
- INT4 (4-bit Integer):INT4进一步减少存储和计算需求,能提供更快的推理速度和更低的内存占用,但精度损失更大,且支持较为有限。
135-
- FP16 (16-bit Floating Point):FP16通过使用16位浮点数减少存储需求,精度损失较小,但计算开销高于INT8和INT4,适合精度要求较高的任务。
135+
- FP16 (16-bit Floating Point):FP16通过使用16位浮点数减少存储需求,精度损失较小,但计算开销高于INT8和INT4,适合精度要求较高的任务。
136+
137+
138+
## 模型排名
139+
140+
为了更好的了解当下模型性能,我们列举了几个模型排名网站,这些网站通过主观测试(人工盲选较优模型)或者客观测试(自动通过含有答案的测试对比准确度),对模型进行排名,并给出排名结果。
141+
142+
- Hugging Face 模型排名:[https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard](https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard)
143+
- 司南排名:[https://opencompass.org.cn/arena](https://opencompass.org.cn/arena)
144+
- 天秤排名:[https://arena.flageval.net/index.html#/arena-page?l=zh-CN](https://arena.flageval.net/index.html#/arena-page?l=zh-CN)

0 commit comments

Comments
 (0)