Skip to content

Latest commit

 

History

History
219 lines (155 loc) · 9.16 KB

File metadata and controls

219 lines (155 loc) · 9.16 KB

AITK'de Phi Ailesi

AI Toolkit for VS Code, Azure AI Foundry Kataloğu ve Hugging Face gibi diğer kataloglardan en son AI geliştirme araçları ve modellerini bir araya getirerek üretken AI uygulama geliştirmeyi kolaylaştırır. GitHub Modelleri ve Azure AI Foundry Model Katalogları tarafından desteklenen AI modelleri kataloğunu gezebilir, modelleri yerel veya uzak olarak indirip, ince ayar yapabilir, test edebilir ve uygulamanızda kullanabilirsiniz.

AI Toolkit Önizlemesi yerel olarak çalışacaktır. Yerel çıkarım veya ince ayar, seçtiğiniz modele bağlıdır; NVIDIA CUDA GPU gibi bir GPU’ya ihtiyacınız olabilir. GitHub Modellerini doğrudan AITK ile de çalıştırabilirsiniz.

Başlarken

Windows için Linux alt sisteminin nasıl kurulacağını öğrenin

ve varsayılan dağıtımın nasıl değiştirileceğini öğrenin.

AI Toolkit GitHub Deposu

AI Toolkit Kurulumu

AI Toolkit, bir Visual Studio Code Uzantısı olarak sunulur, bu yüzden önce VS Code yüklemeli ve AI Toolkit’i VS Marketplace üzerinden indirmelisiniz.
AI Toolkit Visual Studio Marketplace'te mevcuttur ve diğer VS Code uzantıları gibi kurulabilir.

VS Code uzantılarını yüklemeye aşina değilseniz, şu adımları izleyin:

Oturum Açma

  1. VS Code’daki Aktivite Çubuğunda Extensions (Uzantılar) seçeneğini tıklayın
  2. Uzantılar arama çubuğuna "AI Toolkit" yazın
  3. "AI Toolkit for Visual Studio code" uzantısını seçin
  4. Install (Yükle) seçeneğine tıklayın

Artık uzantıyı kullanmaya hazırsınız!

GitHub’da oturum açmanız istenecek, devam etmek için "Allow" (İzin Ver) butonuna tıklayın. GitHub oturum açma sayfasına yönlendirileceksiniz.

Lütfen oturum açın ve işlemleri takip edin. Başarılı tamamlandıktan sonra VS Code’a geri yönlendirileceksiniz.

Uzantı yüklendikten sonra Aktivite Çubuğunuzda AI Toolkit simgesini göreceksiniz.

Hadi mevcut işlemleri keşfedelim!

Mevcut İşlemler

AI Toolkit’in ana yan çubuğu şu bölümlere ayrılmıştır:

  • Models
  • Resources
  • Playground
  • Fine-tuning
  • Evaluation

Resources bölümünde mevcuttur. Başlamak için Model Catalog (Model Kataloğu) seçin.

Katalogdan model indirme

VS Code yan çubuğundan AI Toolkit’i başlattığınızda aşağıdaki seçeneklerden birini seçebilirsiniz:

AI toolkit model catalog

  • Model Catalog’dan desteklenen bir modeli bulun ve yerel olarak indirin
  • Model çıkarımını Model Playground’da test edin
  • Modeli yerel veya uzak olarak Model Fine-tuning ile ince ayar yapın
  • İnce ayar yapılmış modelleri AI Toolkit komut paleti aracılığıyla buluta dağıtın
  • Modelleri değerlendirin

Note

GPU ve CPU Karşılaştırması

Model kartlarında model boyutu, platform ve hızlandırıcı türü (CPU, GPU) gösterilir. En az bir GPU’ya sahip Windows cihazlarında, yalnızca Windows hedefleyen model sürümlerini seçerek optimize edilmiş performans elde edersiniz.

Bu, DirectML hızlandırıcısı için optimize edilmiş bir modele sahip olmanızı sağlar.

Model isimleri şu formatta olur:

  • {model_name}-{accelerator}-{quantization}-{format}.

Windows cihazınızda GPU olup olmadığını kontrol etmek için Görev Yöneticisi’ni açın ve Performans sekmesini seçin. GPU varsa, "GPU 0" veya "GPU 1" gibi isimlerle listelenir.

Modeli playground’da çalıştırma

Tüm parametreler ayarlandıktan sonra Generate Project (Projeyi Oluştur) butonuna tıklayın.

Modeliniz indirildikten sonra katalogdaki model kartında Load in Playground (Playground’da Yükle) seçeneğini seçin:

  • Model indirme işlemini başlatır
  • Tüm önkoşulları ve bağımlılıkları kurar
  • VS Code çalışma alanı oluşturur

Load model in playground

Uygulamanızda REST API kullanımı

AI Toolkit, OpenAI chat completions formatını kullanan yerel bir REST API web sunucusu ile birlikte gelir, 5272 portunda çalışır.

Bu sayede uygulamanızı bulut AI modeli servisine bağlı kalmadan yerel olarak test edebilirsiniz. Örneğin, aşağıdaki JSON dosyası isteğin gövdesinin nasıl yapılandırılacağını gösterir:

{
    "model": "Phi-4",
    "messages": [
        {
            "role": "user",
            "content": "what is the golden ratio?"
        }
    ],
    "temperature": 0.7,
    "top_p": 1,
    "top_k": 10,
    "max_tokens": 100,
    "stream": true
}

REST API’yi (örneğin) Postman veya CURL (Client URL) aracı ile test edebilirsiniz:

curl -vX POST http://127.0.0.1:5272/v1/chat/completions -H 'Content-Type: application/json' -d @body.json

Python için OpenAI istemci kütüphanesini kullanma

from openai import OpenAI

client = OpenAI(
    base_url="http://127.0.0.1:5272/v1/", 
    api_key="x" # required for the API but not used
)

chat_completion = client.chat.completions.create(
    messages=[
        {
            "role": "user",
            "content": "what is the golden ratio?",
        }
    ],
    model="Phi-4",
)

print(chat_completion.choices[0].message.content)

.NET için Azure OpenAI istemci kütüphanesini kullanma

Projeye NuGet kullanarak Azure OpenAI istemci kütüphanesini ekleyin:

dotnet add {project_name} package Azure.AI.OpenAI --version 1.0.0-beta.17

Projeye OverridePolicy.cs adlı bir C# dosyası ekleyin ve aşağıdaki kodu yapıştırın:

// OverridePolicy.cs
using Azure.Core.Pipeline;
using Azure.Core;

internal partial class OverrideRequestUriPolicy(Uri overrideUri)
    : HttpPipelineSynchronousPolicy
{
    private readonly Uri _overrideUri = overrideUri;

    public override void OnSendingRequest(HttpMessage message)
    {
        message.Request.Uri.Reset(_overrideUri);
    }
}

Sonra, aşağıdaki kodu Program.cs dosyanıza yapıştırın:

// Program.cs
using Azure.AI.OpenAI;

Uri localhostUri = new("http://localhost:5272/v1/chat/completions");

OpenAIClientOptions clientOptions = new();
clientOptions.AddPolicy(
    new OverrideRequestUriPolicy(localhostUri),
    Azure.Core.HttpPipelinePosition.BeforeTransport);
OpenAIClient client = new(openAIApiKey: "unused", clientOptions);

ChatCompletionsOptions options = new()
{
    DeploymentName = "Phi-4",
    Messages =
    {
        new ChatRequestSystemMessage("You are a helpful assistant. Be brief and succinct."),
        new ChatRequestUserMessage("What is the golden ratio?"),
    }
};

StreamingResponse<StreamingChatCompletionsUpdate> streamingChatResponse
    = await client.GetChatCompletionsStreamingAsync(options);

await foreach (StreamingChatCompletionsUpdate chatChunk in streamingChatResponse)
{
    Console.Write(chatChunk.ContentUpdate);
}

AI Toolkit ile İnce Ayar

  • Model keşfi ve playground ile başlayın.
  • Yerel hesaplama kaynakları kullanarak model ince ayarı ve çıkarımı.
  • Azure kaynakları kullanarak uzak ince ayar ve çıkarım.

AI Toolkit ile İnce Ayar

AI Toolkit Soru-Cevap Kaynakları

En yaygın sorunlar ve çözümler için lütfen Soru-Cevap sayfamıza bakın.

Feragatname:
Bu belge, AI çeviri servisi Co-op Translator kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hatalar veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belge, kendi dilinde yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımı sonucu ortaya çıkabilecek yanlış anlamalar veya yorum hatalarından sorumlu değiliz.