Intel, çok sayıda kullanıcısı olan en köklü CPU üreticisidir. Makine öğrenimi ve derin öğrenmenin yükselişiyle birlikte, Intel yapay zeka hızlandırma yarışına da katılmıştır. Model çıkarımı için Intel sadece GPU ve CPU’ları değil, aynı zamanda NPU’ları da kullanmaktadır.
Phi-3.x Ailesini uç tarafta dağıtmayı hedefliyoruz ve AI PC ile Copilot PC’nin en önemli parçası olmasını umuyoruz. Modelin uç tarafta yüklenmesi, farklı donanım üreticilerinin iş birliğine bağlıdır. Bu bölümde ağırlıklı olarak Intel OpenVINO’nun kuantitatif model uygulama senaryosuna odaklanılacaktır.
OpenVINO, buluttan uca derin öğrenme modellerini optimize etmek ve dağıtmak için açık kaynaklı bir araç setidir. PyTorch, TensorFlow, ONNX gibi popüler framework’lerden gelen modellerle üretken yapay zeka, video, ses ve dil gibi çeşitli kullanım alanlarında derin öğrenme çıkarımını hızlandırır. Modelleri dönüştürüp optimize edin ve Intel® donanımları ve ortamları arasında, kurum içinde veya cihazda, tarayıcıda ya da bulutta dağıtım yapın.
Artık OpenVINO ile Intel donanımında GenAI modelini hızlıca kuantize edebilir ve model referansını hızlandırabilirsiniz.
Şu anda OpenVINO, Phi-3.5-Vision ve Phi-3.5 Instruct’in kuantizasyon dönüşümünü desteklemektedir.
Lütfen aşağıdaki ortam bağımlılıklarının yüklü olduğundan emin olun, bu requirement.txt dosyasıdır
--extra-index-url https://download.pytorch.org/whl/cpu
optimum-intel>=1.18.2
nncf>=2.11.0
openvino>=2024.3.0
transformers>=4.40
openvino-genai>=2024.3.0.0
Terminalde lütfen bu betiği çalıştırın
export llm_model_id = "microsoft/Phi-3.5-mini-instruct"
export llm_model_path = "your save quantizing Phi-3.5-instruct location"
optimum-cli export openvino --model {llm_model_id} --task text-generation-with-past --weight-format int4 --group-size 128 --ratio 0.6 --sym --trust-remote-code {llm_model_path}
Lütfen bu betiği Python veya Jupyter lab ortamında çalıştırın
import requests
from pathlib import Path
from ov_phi3_vision import convert_phi3_model
import nncf
if not Path("ov_phi3_vision.py").exists():
r = requests.get(url="https://raw.githubusercontent.com/openvinotoolkit/openvino_notebooks/latest/notebooks/phi-3-vision/ov_phi3_vision.py")
open("ov_phi3_vision.py", "w").write(r.text)
if not Path("gradio_helper.py").exists():
r = requests.get(url="https://raw.githubusercontent.com/openvinotoolkit/openvino_notebooks/latest/notebooks/phi-3-vision/gradio_helper.py")
open("gradio_helper.py", "w").write(r.text)
if not Path("notebook_utils.py").exists():
r = requests.get(url="https://raw.githubusercontent.com/openvinotoolkit/openvino_notebooks/latest/utils/notebook_utils.py")
open("notebook_utils.py", "w").write(r.text)
model_id = "microsoft/Phi-3.5-vision-instruct"
out_dir = Path("../model/phi-3.5-vision-128k-instruct-ov")
compression_configuration = {
"mode": nncf.CompressWeightsMode.INT4_SYM,
"group_size": 64,
"ratio": 0.6,
}
if not out_dir.exists():
convert_phi3_model(model_id, out_dir, compression_configuration)| Laboratuvarlar | Tanıtım | Git |
|---|---|---|
| 🚀 Lab-Phi-3.5 Instruct Tanıtımı | AI PC’nizde Phi-3.5 Instruct’i nasıl kullanacağınızı öğrenin | Git |
| 🚀 Lab-Phi-3.5 Vision (görüntü) Tanıtımı | AI PC’nizde Phi-3.5 Vision ile görüntü analizini nasıl yapacağınızı öğrenin | Git |
| 🚀 Lab-Phi-3.5 Vision (video) Tanıtımı | AI PC’nizde Phi-3.5 Vision ile video analizini nasıl yapacağınızı öğrenin | Git |
-
Intel OpenVINO hakkında daha fazla bilgi edinin https://www.intel.com/content/www/us/en/developer/tools/openvino-toolkit/overview.html
-
Intel OpenVINO GitHub Deposu https://github.com/openvinotoolkit/openvino.genai
Feragatname:
Bu belge, AI çeviri servisi Co-op Translator kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hatalar veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belge, kendi dilinde yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımı sonucu ortaya çıkabilecek yanlış anlamalar veya yorum hatalarından sorumlu değiliz.