Skip to content

Latest commit

 

History

History
86 lines (46 loc) · 3.59 KB

File metadata and controls

86 lines (46 loc) · 3.59 KB

Model Builder를 사용하여 Phi-3.5 양자화하는 방법

Model Builder는 현재 Phi-3.5 Instruct와 Phi-3.5-Vision의 ONNX 모델 양자화를 지원합니다.

Phi-3.5-Instruct

CPU 가속 INT4 양자화 변환

python3 -m onnxruntime_genai.models.builder -m microsoft/Phi-3.5-mini-instruct  -o ./onnx-cpu -p int4 -e cpu -c ./Phi-3.5-mini-instruct

CUDA 가속 INT4 양자화 변환

python3 -m onnxruntime_genai.models.builder -m microsoft/Phi-3.5-mini-instruct  -o ./onnx-cpu -p int4 -e cuda -c ./Phi-3.5-mini-instruct
python3 -m onnxruntime_genai.models.builder -m microsoft/Phi-3.5-mini-instruct  -o ./onnx-cpu -p int4 -e cuda -c ./Phi-3.5-mini-instruct

Phi-3.5-Vision

Phi-3.5-vision-instruct-onnx-cpu-fp32

  1. 터미널에서 환경 설정
mkdir models

cd models 
  1. models 폴더에 microsoft/Phi-3.5-vision-instruct 다운로드
    https://huggingface.co/microsoft/Phi-3.5-vision-instruct

  2. 다음 파일들을 Phi-3.5-vision-instruct 폴더에 다운로드하세요

  1. models 폴더에 이 파일 다운로드
    https://huggingface.co/lokinfey/Phi-3.5-vision-instruct-onnx-cpu/blob/main/onnx/build.py

  2. 터미널로 이동

    FP32로 ONNX 지원 변환 실행

python build.py -i .\Your Phi-3.5-vision-instruct Path\ -o .\vision-cpu-fp32 -p f32 -e cpu

참고:

  1. Model Builder는 현재 Phi-3.5-Instruct와 Phi-3.5-Vision 변환만 지원하며 Phi-3.5-MoE는 지원하지 않습니다.

  2. ONNX 양자화 모델은 Generative AI extensions for onnxruntime SDK를 통해 사용할 수 있습니다.

  3. 보다 책임감 있는 AI 사용을 위해 모델 양자화 변환 후에는 효과적인 결과 테스트를 권장합니다.

  4. CPU INT4 모델 양자화를 통해 Edge Device에 배포할 수 있어 더 나은 적용 시나리오를 제공합니다. 이에 따라 Phi-3.5-Instruct INT4 양자화를 완료했습니다.

자료

  1. Generative AI extensions for onnxruntime에 대해 더 알아보기
    https://onnxruntime.ai/docs/genai/

  2. Generative AI extensions for onnxruntime GitHub 저장소
    https://github.com/microsoft/onnxruntime-genai

면책 조항:
이 문서는 AI 번역 서비스 Co-op Translator를 사용하여 번역되었습니다. 정확성을 위해 노력하고 있으나, 자동 번역에는 오류나 부정확한 부분이 있을 수 있음을 유의하시기 바랍니다. 원문은 해당 언어의 원본 문서가 권위 있는 출처로 간주되어야 합니다. 중요한 정보의 경우 전문적인 인간 번역을 권장합니다. 본 번역 사용으로 인해 발생하는 오해나 잘못된 해석에 대해 당사는 책임을 지지 않습니다.