Model Builderは現在、Phi-3.5 InstructおよびPhi-3.5-VisionのONNXモデル量子化をサポートしています。
CPUアクセラレーションによるINT4量子化変換
python3 -m onnxruntime_genai.models.builder -m microsoft/Phi-3.5-mini-instruct -o ./onnx-cpu -p int4 -e cpu -c ./Phi-3.5-mini-instruct
CUDAアクセラレーションによるINT4量子化変換
python3 -m onnxruntime_genai.models.builder -m microsoft/Phi-3.5-mini-instruct -o ./onnx-cpu -p int4 -e cuda -c ./Phi-3.5-mini-instruct
python3 -m onnxruntime_genai.models.builder -m microsoft/Phi-3.5-mini-instruct -o ./onnx-cpu -p int4 -e cuda -c ./Phi-3.5-mini-instructPhi-3.5-vision-instruct-onnx-cpu-fp32
- ターミナルで環境を設定
mkdir models
cd models
-
modelsフォルダにmicrosoft/Phi-3.5-vision-instructをダウンロード
https://huggingface.co/microsoft/Phi-3.5-vision-instruct -
以下のファイルをPhi-3.5-vision-instructフォルダにダウンロードしてください
-
https://huggingface.co/lokinfey/Phi-3.5-vision-instruct-onnx-cpu/resolve/main/onnx/config.json
-
https://huggingface.co/lokinfey/Phi-3.5-vision-instruct-onnx-cpu/blob/main/onnx/modeling_phi3_v.py
- 以下のファイルをmodelsフォルダにダウンロード
https://huggingface.co/lokinfey/Phi-3.5-vision-instruct-onnx-cpu/blob/main/onnx/build.py
-
ターミナルに移動し、
FP32でONNXサポートの変換を実行
python build.py -i .\Your Phi-3.5-vision-instruct Path\ -o .\vision-cpu-fp32 -p f32 -e cpu
-
Model Builderは現在、Phi-3.5-InstructとPhi-3.5-Visionの変換をサポートしていますが、Phi-3.5-MoEはサポートしていません。
-
ONNXの量子化モデルを使用するには、Generative AI extensions for onnxruntime SDKを通じて利用可能です。
-
より責任あるAIの観点から、モデルの量子化変換後は、より効果的な結果検証を行うことを推奨します。
-
CPUのINT4モデルを量子化することで、エッジデバイスへの展開が可能となり、より良いアプリケーションシナリオが期待できるため、Phi-3.5-InstructのINT4周りの対応を完了しています。
-
Generative AI extensions for onnxruntimeについて詳しくはこちら
https://onnxruntime.ai/docs/genai/ -
Generative AI extensions for onnxruntime GitHubリポジトリ
https://github.com/microsoft/onnxruntime-genai
免責事項:
本書類はAI翻訳サービス「Co-op Translator」を使用して翻訳されました。正確性を期しておりますが、自動翻訳には誤りや不正確な部分が含まれる可能性があります。原文の言語によるオリジナル文書が正式な情報源とみなされるべきです。重要な情報については、専門の人間による翻訳を推奨します。本翻訳の利用により生じた誤解や誤訳について、当方は一切の責任を負いかねます。