Phi is een reeks open source AI-modellen ontwikkeld door Microsoft.
Phi is momenteel het krachtigste en meest kosteneffectieve kleine taalmodel (SLM), met zeer goede benchmarks in meertaligheid, redeneren, tekst/chat generatie, coderen, afbeeldingen, audio en andere scenario's.
Je kunt Phi implementeren in de cloud of op randapparaten, en je kunt eenvoudig generatieve AI-toepassingen bouwen met beperkte rekenkracht.
Volg deze stappen om aan de slag te gaan met deze bron:
- Fork de Repository: Klik op
- Clone de Repository:
git clone https://github.com/microsoft/PhiCookBook.git - Word lid van de Microsoft AI Discord Community en ontmoet experts en mede-ontwikkelaars
Arabisch | Bengaals | Bulgaars | Birmese (Myanmar) | Chinees (Vereenvoudigd) | Chinees (Traditioneel, Hong Kong) | Chinees (Traditioneel, Macau) | Chinees (Traditioneel, Taiwan) | Kroatisch | Tsjechisch | Deens | Nederlands | Estisch | Fins | Frans | Duits | Grieks | Hebreeuws | Hindi | Hongaars | Indonesisch | Italiaans | Japans | Kannada | Koreaans | Litouws | Maleis | Malayalam | Marathi | Nepalees | Nigeriaans Pidgin | Noors | Perzisch (Farsi) | Pools | Portugees (Brazilië) | Portugees (Portugal) | Punjabi (Gurmukhi) | Roemeens | Russisch | Servisch (Cyrillisch) | Slowaaks | Sloveens | Spaans | Swahili | Zweeds | Tagalog (Filipijns) | Tamil | Telugu | Thais | Turks | Oekraïens | Urdu | Vietnamees
Liever lokaal clonen?
Deze repository bevat vertalingen in meer dan 50 talen, wat de downloadgrootte aanzienlijk vergroot. Om te clonen zonder vertalingen, gebruik sparse checkout:
Bash / macOS / Linux:
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'CMD (Windows):
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"Dit geeft je alles wat je nodig hebt om de cursus te voltooien met een veel snellere download.
-
Introductie
-
Inferentie Phi in verschillende omgevingen
-
Inferentie Phi Familie
- Inferentie Phi in iOS
- Inferentie Phi in Android
- Inferentie Phi in Jetson
- Inferentie Phi op AI PC
- Inferentie Phi met Apple MLX Framework
- Inferentie Phi op Lokale Server
- Inferentie Phi op Remote Server met AI Toolkit
- Inferentie Phi met Rust
- Inferentie Phi--Visie lokaal
- Inferentie Phi met Kaito AKS, Azure Containers (officiële ondersteuning)
-
Evaluatie Phi
-
RAG met Azure AI Search
-
Phi toepassingsontwikkelingsvoorbeelden
-
Tekst- en Chattoepassingen
- Phi-4 Voorbeelden 🆕
- Phi-3 / 3.5 Voorbeelden
- Lokale Chatbot in de browser met Phi3, ONNX Runtime Web en WebGPU
- OpenVino Chat
- Multi Model - Interactieve Phi-3-mini en OpenAI Whisper
- MLFlow - Een wrapper bouwen en Phi-3 gebruiken met MLFlow
- Modeloptimalisatie - Hoe het Phi-3-min model te optimaliseren voor ONNX Runtime Web met Olive
- WinUI3 App met Phi-3 mini-4k-instruct-onnx -WinUI3 Multi Model AI aangedreven Notities App Voorbeeld
- Fijn afstemmen en integreren van aangepaste Phi-3 modellen met Prompt flow
- Fijn afstemmen en integreren van aangepaste Phi-3 modellen met Prompt flow in Azure AI Foundry
- Evalueren van het fijn-afgestelde Phi-3 / Phi-3.5 Model in Azure AI Foundry met focus op Microsoft’s Responsible AI Principles
- [📓] Phi-3.5-mini-instruct taalvoorspellingsvoorbeeld (Chinees/Engels)
- Phi-3.5-Instruct WebGPU RAG Chatbot
- Windows GPU gebruiken om Prompt flow oplossing te maken met Phi-3.5-Instruct ONNX
- Microsoft Phi-3.5 tflite gebruiken om Android app te maken
- Q&A .NET Voorbeeld met lokale ONNX Phi-3 model met Microsoft.ML.OnnxRuntime
- Console chat .NET app met Semantic Kernel en Phi-3
-
Azure AI Inference SDK Code Gebaseerde Voorbeelden
-
Geavanceerde Redeneer Voorbeelden
-
Demo's
-
Vision Voorbeelden
- Phi-4 Voorbeelden 🆕
- Phi-3 / 3.5 Voorbeelden
- [📓]Phi-3-vision-Afbeelding tekst naar tekst
- Phi-3-vision-ONNX
- [📓]Phi-3-vision CLIP Embedding
- DEMO: Phi-3 Recycling
- Phi-3-vision - Visuele taalassistent - met Phi3-Vision en OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Phi-3.5 Vision multi-frame of multi-afbeelding voorbeeld
- Phi-3 Vision Lokale ONNX Model met Microsoft.ML.OnnxRuntime .NET
- Menu gebaseerd Phi-3 Vision Lokale ONNX Model met Microsoft.ML.OnnxRuntime .NET
-
Wiskunde Voorbeelden
- Phi-4-Mini-Flash-Reasoning-Instruct Voorbeelden 🆕 Wiskunde Demo met Phi-4-Mini-Flash-Reasoning-Instruct
-
Audio Voorbeelden
-
MOE Voorbeelden
-
Function Calling Voorbeelden
-
Multimodaal Mixen Voorbeelden
-
-
Fijn afstemmen Phi Voorbeelden
- Fijn afstemmen Scenario's
- Fijn afstemmen vs RAG
- Fijn afstemmen Laat Phi-3 een industrie-expert worden
- Fijn afstemmen Phi-3 met AI Toolkit voor VS Code
- Fijn afstemmen Phi-3 met Azure Machine Learning Service
- Fijn afstemmen Phi-3 met Lora
- Fijn afstemmen Phi-3 met QLora
- Fijn afstemmen Phi-3 met Azure AI Foundry
- Fijn afstemmen Phi-3 met Azure ML CLI/SDK
- Fijn afstemmen met Microsoft Olive
- Fijn afstemmen met Microsoft Olive Hands-On Lab
- Fijn afstemmen Phi-3-vision met Weights and Bias
- Fijn afstemmen Phi-3 met Apple MLX Framework
- Fijn afstemmen Phi-3-vision (officiële ondersteuning)
- Fijn afstemmen Phi-3 met Kaito AKS, Azure Containers (officiële ondersteuning)
- Fijn afstemmen Phi-3 en 3.5 Vision
-
Hands on Lab
-
Academische onderzoeksartikelen en publicaties
- Textbooks Are All You Need II: phi-1.5 technisch rapport
- Phi-3 technisch rapport: Een zeer capabel taalmodel lokaal op je telefoon
- Phi-4 technisch rapport
- Phi-4-Mini technisch rapport: Compact maar krachtig multimodaal taalmodel via Mixture-of-LoRAs
- Optimalisatie van kleine taalmodellen voor functie-aanroepen in voertuigen
- (WhyPHI) Fijn-afstemming van PHI-3 voor multiple-choice vraagbeantwoording: Methodologie, resultaten en uitdagingen
- Phi-4-redeneren technisch rapport
- Phi-4-mini-redeneren technisch rapport
Je kunt leren hoe je Microsoft Phi gebruikt en hoe je E2E-oplossingen bouwt op verschillende hardwareapparaten. Om Phi zelf te ervaren, begin met het spelen met de modellen en het aanpassen van Phi voor jouw scenario's met behulp van de Azure AI Foundry Azure AI Model Catalog. Je kunt meer leren in Aan de slag met Azure AI Foundry.
Playground Elk model heeft een speciale playground om het model te testen: Azure AI Playground.
Je kunt leren hoe je Microsoft Phi gebruikt en hoe je E2E-oplossingen bouwt op verschillende hardwareapparaten. Om Phi zelf te ervaren, begin met het spelen met het model en het aanpassen van Phi voor jouw scenario's met behulp van de GitHub Model Catalog. Je kunt meer leren in Aan de slag met GitHub Model Catalog.
Playground Elk model heeft een speciale playground om het model te testen.
Je kunt het model ook vinden op Hugging Face.
Playground Hugging Chat playground
Ons team produceert ook andere cursussen! Bekijk ze hieronder:
Microsoft zet zich in om onze klanten te helpen onze AI-producten op een verantwoorde manier te gebruiken, onze inzichten te delen en vertrouwensrelaties op te bouwen via tools zoals Transparantienotities en Impactbeoordelingen. Veel van deze hulpmiddelen zijn te vinden op https://aka.ms/RAI.
Microsofts benadering van verantwoorde AI is gebaseerd op onze AI-principes van eerlijkheid, betrouwbaarheid en veiligheid, privacy en beveiliging, inclusiviteit, transparantie en verantwoordingsplicht.
Grote taal-, beeld- en spraakmodellen - zoals de modellen die in dit voorbeeld worden gebruikt - kunnen zich potentieel op manieren gedragen die oneerlijk, onbetrouwbaar of aanstootgevend zijn, wat op zijn beurt schade kan veroorzaken. Raadpleeg de Transparantienotitie van de Azure OpenAI-service om geïnformeerd te worden over risico's en beperkingen.
De aanbevolen aanpak om deze risico's te beperken is het opnemen van een veiligheidssysteem in je architectuur dat schadelijk gedrag kan detecteren en voorkomen. Azure AI Content Safety biedt een onafhankelijke beschermingslaag die schadelijke gebruikergemaakte en AI-gegenereerde inhoud in applicaties en diensten kan detecteren. Azure AI Content Safety omvat tekst- en beeld-API's die je in staat stellen schadelijk materiaal te detecteren. Binnen Azure AI Foundry stelt de Content Safety-service je in staat voorbeeldcode te bekijken, te verkennen en uit te proberen om schadelijke inhoud in verschillende modaliteiten te detecteren. De volgende quickstart-documentatie begeleidt je bij het maken van verzoeken aan de service. Een ander aspect om rekening mee te houden is de algemene prestatie van de toepassing. Bij multi-modale en multi-model toepassingen verstaan we onder prestatie dat het systeem presteert zoals u en uw gebruikers verwachten, inclusief het niet genereren van schadelijke outputs. Het is belangrijk om de prestatie van uw hele toepassing te beoordelen met behulp van Performance and Quality and Risk and Safety evaluators. U heeft ook de mogelijkheid om te creëren en evalueren met custom evaluators.
U kunt uw AI-toepassing evalueren in uw ontwikkelomgeving met behulp van de Azure AI Evaluation SDK. Met een testdataset of een doel worden de generaties van uw generatieve AI-toepassing kwantitatief gemeten met ingebouwde evaluators of de aangepaste evaluators van uw keuze. Om aan de slag te gaan met de azure ai evaluation sdk om uw systeem te evalueren, kunt u de quickstart-gids volgen. Zodra u een evaluatierun uitvoert, kunt u de resultaten visualiseren in Azure AI Foundry.
Dit project kan handelsmerken of logo’s bevatten van projecten, producten of diensten. Het geautoriseerde gebruik van Microsoft-handelsmerken of logo’s is onderhevig aan en moet voldoen aan de Microsoft's Trademark & Brand Guidelines. Gebruik van Microsoft-handelsmerken of logo’s in gewijzigde versies van dit project mag geen verwarring veroorzaken of impliceren dat Microsoft sponsor is. Elk gebruik van handelsmerken of logo’s van derden is onderhevig aan het beleid van die derden.
Als u vastloopt of vragen heeft over het bouwen van AI-apps, sluit u dan aan bij:
Als u productfeedback of fouten ondervindt tijdens het bouwen, bezoek dan:
Disclaimer: Dit document is vertaald met behulp van de AI-vertalingsdienst Co-op Translator. Hoewel we streven naar nauwkeurigheid, dient u zich ervan bewust te zijn dat geautomatiseerde vertalingen fouten of onjuistheden kunnen bevatten. Het oorspronkelijke document in de oorspronkelijke taal moet als de gezaghebbende bron worden beschouwd. Voor cruciale informatie wordt een professionele menselijke vertaling aanbevolen. Wij zijn niet aansprakelijk voor eventuele misverstanden of verkeerde interpretaties voortvloeiend uit het gebruik van deze vertaling.
