Phi er en serie med open source AI-modeller utviklet av Microsoft.
Phi er for øyeblikket den mest kraftfulle og kostnadseffektive lille språkmodellen (SLM), med veldig gode resultater innen flerspråklighet, resonnering, tekst-/chatgenerering, koding, bilder, lyd og andre scenarier.
Du kan distribuere Phi til skyen eller til edge-enheter, og du kan enkelt bygge generative AI-applikasjoner med begrenset datakraft.
Følg disse trinnene for å komme i gang med disse ressursene:
- Fork lagringsplassen: Klikk
- Klon lagringsplassen:
git clone https://github.com/microsoft/PhiCookBook.git - Bli med i Microsoft AI Discord Community og møt eksperter og andre utviklere
Arabisk | Bengali | Bulgarsk | Burmesisk (Myanmar) | Kinesisk (Forenklet) | Kinesisk (Tradisjonell, Hong Kong) | Kinesisk (Tradisjonell, Macau) | Kinesisk (Tradisjonell, Taiwan) | Kroatisk | Tsjekkisk | Dansk | Nederlandsk | Estisk | Finsk | Fransk | Tysk | Gresk | Hebraisk | Hindi | Ungarsk | Indonesisk | Italiensk | Japansk | Kannada | Koreansk | Litauisk | Malayisk | Malayalam | Marathi | Nepalsk | Nigeriansk pidgin | Norsk | Persisk (Farsi) | Polsk | Portugisisk (Brasil) | Portugisisk (Portugal) | Punjabi (Gurmukhi) | Rumensk | Russisk | Serbisk (kyrillisk) | Slovakisk | Slovensk | Spansk | Swahili | Svensk | Tagalog (Filippinsk) | Tamil | Telugu | Thai | Tyrkisk | Ukrainsk | Urdu | Vietnamesisk
Foretrekker du å klone lokalt?
Dette depotet inkluderer over 50 språklige oversettelser som betydelig øker nedlastingsstørrelsen. For å klone uten oversettelser, bruk sparsjekontroll:
Bash / macOS / Linux:
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'CMD (Windows):
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"Dette gir deg alt du trenger for å fullføre kurset med mye raskere nedlasting.
-
Introduksjon
-
Inference Phi i forskjellige miljøer
-
Inference Phi-familien
- Inference Phi i iOS
- Inference Phi i Android
- Inference Phi i Jetson
- Inference Phi i AI-PC
- Inference Phi med Apple MLX Framework
- Inference Phi i lokal server
- Inference Phi i ekstern server med AI Toolkit
- Inference Phi med Rust
- Inference Phi--Vision lokalt
- Inference Phi med Kaito AKS, Azure Containers (offisiell støtte)
-
Evaluering av Phi
-
RAG med Azure AI Search
-
Eksempler på Phi-applikasjonsutvikling
-
Tekst- og chattjenester
- Phi-4 Eksempler 🆕
- Phi-3 / 3.5 Eksempler
- Lokal chatbot i nettleseren med Phi3, ONNX Runtime Web og WebGPU
- OpenVino Chat
- Multi Model - Interaktiv Phi-3-mini og OpenAI Whisper
- MLFlow - Lage en wrapper og bruke Phi-3 med MLFlow
- Modelloptimalisering - Hvordan optimalisere Phi-3-minimodellen for ONNX Runtime Web med Olive
- WinUI3-app med Phi-3 mini-4k-instruct-onnx -WinUI3 Multi Model AI-drevet notatapp-eksempel
- Finjustere og integrere tilpassede Phi-3-modeller med Prompt flow
- Finjustere og integrere tilpassede Phi-3-modeller med Prompt flow i Azure AI Foundry
- Evaluere den finjusterte Phi-3 / Phi-3.5-modellen i Azure AI Foundry med fokus på Microsofts Responsible AI Principles
- [📓] Phi-3.5-mini-instruct språkprediksjonseksempel (kinesisk/engelsk)
- Phi-3.5-Instruct WebGPU RAG Chatbot
- Bruke Windows GPU til å lage Prompt flow-løsning med Phi-3.5-Instruct ONNX
- Bruke Microsoft Phi-3.5 tflite til å lage Android-app
- Spørsmål og svar .NET-eksempel som bruker lokal ONNX Phi-3-modell med Microsoft.ML.OnnxRuntime
- Konsoll chat .NET-app med Semantic Kernel og Phi-3
-
Azure AI Inference SDK kodebaserte eksempler
-
Avanserte resonneringseksempler
-
Demoer
-
Visjons-eksempler
- Phi-4 eksempler 🆕
- Phi-3 / 3.5 eksempler
- [📓]Phi-3-visjon-Bilde tekst til tekst
- Phi-3-visjon-ONNX
- [📓]Phi-3-visjon CLIP-embedding
- DEMO: Phi-3 Resirkulering
- Phi-3-visjon - Visuell språkassistent - med Phi3-Vision og OpenVINO
- Phi-3-visjon Nvidia NIM
- Phi-3-visjon OpenVino
- [📓]Phi-3.5 Visjon multi-ramme eller multi-bilde eksempel
- Phi-3-visjon lokal ONNX-modell ved bruk av Microsoft.ML.OnnxRuntime .NET
- Menybasert Phi-3-visjon lokal ONNX-modell ved bruk av Microsoft.ML.OnnxRuntime .NET
-
Matematikk-eksempler
- Phi-4-Mini-Flash-Reasoning-Instruct eksempler 🆕 Matematikk-demo med Phi-4-Mini-Flash-Reasoning-Instruct
-
Audio-eksempler
-
MOE Eksempler
-
Funksjonsanrops-eksempler
-
Multimodal miksing-eksempler
-
-
Finjustering Phi-eksempler
- Finjusteringsscenarier
- Finjustering vs RAG
- Finjustering: La Phi-3 bli en bransjeekspert
- Finjustering Phi-3 med AI Toolkit for VS Code
- Finjustering Phi-3 med Azure Machine Learning Service
- Finjustering Phi-3 med Lora
- Finjustering Phi-3 med QLora
- Finjustering Phi-3 med Azure AI Foundry
- Finjustering Phi-3 med Azure ML CLI/SDK
- Finjustering med Microsoft Olive
- Finjustering med Microsoft Olive Hands-On Lab
- Finjustering Phi-3-visjon med Weights and Bias
- Finjustering Phi-3 med Apple MLX Framework
- Finjustering Phi-3-visjon (offisiell støtte)
- Finjustering Phi-3 med Kaito AKS, Azure Containers (offisiell støtte)
- Finjustering Phi-3 og 3.5 Visjon
-
Hands on Lab
-
Akademiske forskningsartikler og publikasjoner
- Textbooks Are All You Need II: phi-1.5 teknisk rapport
- Phi-3 Teknisk rapport: En meget kapabel språkmodell lokalt på telefonen din
- Phi-4 Teknisk rapport
- Phi-4-Mini Teknisk rapport: Kompakte, men kraftfulle multimodale språkmodeller via Mixture-of-LoRAs
- Optimalisering av små språkmodeller for funksjonsanrop i kjøretøy
- (WhyPHI) Finjustering av PHI-3 for flervalgsspørsmål: Metodikk, resultater og utfordringer
- Phi-4-reasoning Teknisk rapport
- Phi-4-mini-reasoning Teknisk rapport
Du kan lære hvordan du bruker Microsoft Phi og hvordan bygge ende-til-ende løsninger i dine ulike maskinvareenheter. For å oppleve Phi selv, start med å leke med modellene og tilpasse Phi til dine scenarioer ved å bruke Azure AI Foundry Azure AI Model Catalog. Du kan lære mer i Kom i gang med Azure AI Foundry
Playground Hver modell har en dedikert playground for å teste modellen Azure AI Playground.
Du kan lære hvordan du bruker Microsoft Phi og hvordan bygge ende-til-ende løsninger i dine ulike maskinvareenheter. For å oppleve Phi selv, start med å leke med modellen og tilpasse Phi til dine scenarioer ved å bruke GitHub Model Catalog. Du kan lære mer i Kom i gang med GitHub Model Catalog
Playground Hver modell har en dedikert playground for å teste modellen.
Du kan også finne modellen på Hugging Face
Playground Hugging Chat playground
Vårt team produserer andre kurs! Sjekk ut:
Microsoft er forpliktet til å hjelpe kundene våre med å bruke AI-produktene våre på en ansvarlig måte, dele våre læringer, og bygge tillitsbaserte partnerskap gjennom verktøy som Transparency Notes og Impact Assessments. Mange av disse ressursene kan finnes på https://aka.ms/RAI.
Microsofts tilnærming til ansvarlig AI er forankret i våre AI-prinsipper om rettferdighet, pålitelighet og sikkerhet, personvern og sikkerhet, inkludering, åpenhet, og ansvarlighet.
Store språk-, bilde- og talemodeller i stor skala - som de som brukes i dette eksempelet - kan potensielt oppføre seg på måter som er urettferdige, upålitelige eller støtende, noe som igjen kan forårsake skade. Vennligst les Azure OpenAI service Transparency note for å bli informert om risikoer og begrensninger.
Den anbefalte tilnærmingen for å redusere disse risikoene er å inkludere et sikkerhetssystem i arkitekturen din som kan oppdage og forhindre skadelig oppførsel. Azure AI Content Safety gir et uavhengig lag med beskyttelse, i stand til å oppdage skadelig bruker-generert og AI-generert innhold i applikasjoner og tjenester. Azure AI Content Safety inkluderer tekst- og bilde-APIer som gjør at du kan oppdage materiale som er skadelig. Innenfor Azure AI Foundry lar Content Safety-tjenesten deg se, utforske og prøve eksempel på kode for å oppdage skadelig innhold på tvers av ulike modaliteter. Følgende rask start-dokumentasjon veileder deg gjennom hvordan du gjør forespørsler til tjenesten. En annen faktor å ta i betraktning er den generelle ytelsen til applikasjonen. Med multimodale og multimodell-applikasjoner mener vi med ytelse at systemet fungerer som du og dine brukere forventer, inkludert at det ikke genererer skadelige resultater. Det er viktig å vurdere ytelsen til din samlede applikasjon ved å bruke Performance and Quality and Risk and Safety evaluators. Du har også muligheten til å lage og evaluere med custom evaluators.
Du kan evaluere AI-applikasjonen din i utviklingsmiljøet ved å bruke Azure AI Evaluation SDK. Med enten et testdatasett eller et mål blir genereringene fra din generative AI-applikasjon kvantitativt målt med innebygde evalueringsverktøy eller tilpassede evalueringsverktøy etter ønske. For å komme i gang med azure ai evaluation sdk for å evaluere systemet ditt, kan du følge quickstart guide. Etter at du har kjørt en evaluering, kan du visualisere resultatene i Azure AI Foundry.
Dette prosjektet kan inneholde varemerker eller logoer for prosjekter, produkter eller tjenester. Autorisert bruk av Microsoft-varemerker eller logoer er underlagt og må følge Microsoft's Trademark & Brand Guidelines. Bruk av Microsoft-varemerker eller logoer i modifiserte versjoner av dette prosjektet må ikke skape forvirring eller antyde Microsoft-sponsing. All bruk av tredjeparts varemerker eller logoer er underlagt disse tredjeparts regler.
Hvis du står fast eller har spørsmål om å bygge AI-apper, bli med i:
Hvis du har produktfeedback eller oppdager feil under bygging, besøk:
Ansvarsfraskrivelse: Dette dokumentet er oversatt ved hjelp av AI-oversettelsestjenesten Co-op Translator. Selv om vi streber etter nøyaktighet, vennligst vær oppmerksom på at automatiske oversettelser kan inneholde feil eller unøyaktigheter. Det opprinnelige dokumentet på dets opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.
