Skip to content

Latest commit

 

History

History
71 lines (45 loc) · 2.62 KB

File metadata and controls

71 lines (45 loc) · 2.62 KB

LMDeploy-Jetson:Opening a new era of Offline Embodied Intelligence

在NVIDIA Jetson平台离线部署大模型,开启离线具身智能新纪元。

[中文] | [English]

本项目提供一种将LMDeploy移植到NVIDIA Jetson系列边缘计算卡的方法,并在Jetson计算卡上运行InternLM系列大模型,为离线具身智能提供可能。

演示视频:[Bilibili]

最新新闻🎉

已验证模型/平台

  • ✅:已验证可运行
  • ❌:已验证不可运行
  • ⭕️:待验证
Models InternLM-7B InternLM-20B InternLM2-1.8B InternLM2-7B InternLM2-20B
Orin AGX(32G)
Jetpack 5.1

Mem:??/??
14.68 token/s

Mem:??/??
5.82 token/s

Mem:??/??
56.57 token/s

Mem:??/??
14.56 token/s

Mem:??/??
6.16 token/s
Orin NX(16G)
Jetpack 5.1

Mem:8.6G/16G
7.39 token/s

Mem:14.7G/16G
3.08 token/s

Mem:5.6G/16G
22.96 token/s

Mem:9.2G/16G
7.48 token/s

Mem:14.8G/16G
3.19 token/s
Xavier NX(8G)
Jetpack 5.1

Mem:4.35G/8G
28.36 token/s

如果您有更多Jetson系列板卡,欢迎运行Benchmark并通过Pull requests(PR)提交结果,成为社区贡献者之一!

未来工作

  • 在Nano/AGX等更多Jetson板卡测试
  • ……

部署教程

S1.服务器端模型W4A16量化

S2.Jetson端安装Miniconda

S3.Jetson端安装CMake-3.29.0

S4.Jetson端安装RapidJson

S5.Jetson端安装Pytorch-2.1.0

S6.Jetson端移植LMDeploy-0.2.4

S7.Jetson端离线运行InternLM大模型

附录

引用

如果本项目对您的工作有所帮助,请使用以下格式引用:

@misc{hongjun2024lmdeployjetson,
    title={LMDeploy-Jetson:Opening a new era of Offline Embodied Intelligence},
    author={LMDeploy-Jetson Community},
    url={https://github.com/BestAnHongjun/LMDeploy-Jetson},
    year={2024}
}

致谢