Phi este o serie de modele AI open source dezvoltate de Microsoft.
Phi este în prezent cel mai puternic și rentabil model lingvistic mic (SLM), cu performanțe foarte bune în mai multe limbi, raționament, generare text/chat, codare, imagini, audio și alte scenarii.
Poți implementa Phi în cloud sau pe dispozitive edge și poți construi cu ușurință aplicații AI generative cu resurse limitate de calcul.
Urmează acești pași pentru a începe să folosești aceste resurse:
- Fork la Repository: Click
- Clonează Repository-ul:
git clone https://github.com/microsoft/PhiCookBook.git - Alătură-te Comunității Microsoft AI pe Discord și întâlnește experți și dezvoltatori de seamă
Arabă | Bengaleză | Bulgară | Birmaneză (Myanmar) | Chineză (Simplificată) | Chineză (Tradițională, Hong Kong) | Chineză (Tradițională, Macau) | Chineză (Tradițională, Taiwan) | Croată | Cehă | Daneză | Olandeză | Estonă | Finlandeză | Franceză | Germană | Greacă | Ebraică | Hindi | Maghiară | Indoneziană | Italiană | Japoneză | Kannada | Coreeană | Lituaniană | Malay | Malayalam | Marathi | Nepaleză | Pidgin Nigerian | Norvegiană | Persană (Farsi) | Poloneză | Portugheză (Brazilia) | Portugheză (Portugalia) | Punjabi (Gurmukhi) | Română | Rusă | Sârbă (Chirilică) | Slovacă | Slovenă | Spaniolă | Swahili | Suedeză | Tagalog (Filipineză) | Tamil | Telugu | Thailandeză | Turcă | Ucraineană | Urdu | Vietnameză
Preferi să clonezi local?
Acest repository include traduceri în peste 50 de limbi, ceea ce crește semnificativ dimensiunea descărcării. Pentru a clona fără traduceri, folosește sparse checkout:
Bash / macOS / Linux:
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'CMD (Windows):
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"Astfel primești tot ce ai nevoie pentru a parcurge cursul cu o descărcare mult mai rapidă.
-
Introducere
-
Inferență Phi în diferite medii
-
Inferență Phi Family
- Inferență Phi pe iOS
- Inferență Phi pe Android
- Inferență Phi pe Jetson
- Inferență Phi pe PC AI
- Inferență Phi cu Apple MLX Framework
- Inferență Phi pe server local
- Inferență Phi pe server la distanță folosind AI Toolkit
- Inferență Phi cu Rust
- Inferență Phi--Vision local
- Inferență Phi cu Kaito AKS, Azure Containers(suport oficial)
-
Evaluarea Phi
-
RAG cu Azure AI Search
-
Exemple de dezvoltare aplicații Phi
-
Aplicații text și chat
- Exemple Phi-4 🆕
- Exemple Phi-3 / 3.5
- Chatbot local în browser folosind Phi3, ONNX Runtime Web și WebGPU
- Chat OpenVino
- Model Multi - Interactiv Phi-3-mini și OpenAI Whisper
- MLFlow - Construirea unui wrapper și utilizarea Phi-3 cu MLFlow
- Optimizarea modelului - Cum să optimizezi modelul Phi-3-min pentru ONNX Runtime Web cu Olive
- Aplicație WinUI3 cu Phi-3 mini-4k-instruct-onnx -Exemplu Aplicație WinUI3 Multi Model alimentată de AI
- Finisare și integrare modele personalizate Phi-3 cu Prompt flow
- Finisare și integrare modele personalizate Phi-3 cu Prompt flow în Azure AI Foundry
- Evaluarea modelului Phi-3 / Phi-3.5 finisat în Azure AI Foundry concentrându-se pe principiile AI responsabile ale Microsoft
- [📓] Exemplu de predicție a limbajului Phi-3.5-mini-instruct (Chineză/Engleză)
- Chatbot Phi-3.5-Instruct WebGPU RAG
- Folosind GPU Windows pentru a crea soluția Prompt flow cu Phi-3.5-Instruct ONNX
- Folosirea Microsoft Phi-3.5 tflite pentru a crea aplicație Android
- Exemplu Q&A .NET folosind modelul local ONNX Phi-3 cu Microsoft.ML.OnnxRuntime
- Aplicație consolă chat .NET cu Semantic Kernel și Phi-3
-
Exemple Cod SDK Azure AI Inference
-
Exemple Raționamente Avansate
-
Demonstrații
-
Exemple Viziune
- Exemple Phi-4 🆕
- Exemple Phi-3 / 3.5
- [📓]Phi-3-vision-Imagine text la text
- Phi-3-vision-ONNX
- [📓]Phi-3-vision CLIP Embedding
- DEMO: Phi-3 Reciclare
- Phi-3-vision - Asistent vizual lingvistic - cu Phi3-Vision și OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Phi-3.5 Vision exemplu multi-cadru sau multi-imagine
- Phi-3 Vision Model Local ONNX folosind Microsoft.ML.OnnxRuntime .NET
- Model Local ONNX Phi-3 Vision bazat pe meniu folosind Microsoft.ML.OnnxRuntime .NET
-
Exemple Matematică
- Exemple Phi-4-Mini-Flash-Reasoning-Instruct 🆕 Demo Matematică cu Phi-4-Mini-Flash-Reasoning-Instruct
-
Exemple Audio
-
Exemple MOE
-
Exemple Apelare Funcții
-
Exemple Amestec Multimodal
-
-
Ajustări fine ale exemplarelor Phi
- Scenarii de ajustare fină
- Ajustare fină vs RAG
- Ajustare fină pentru a transforma Phi-3 într-un expert în industrie
- Ajustare fină Phi-3 cu AI Toolkit pentru VS Code
- Ajustare fină Phi-3 cu Azure Machine Learning Service
- Ajustare fină Phi-3 cu Lora
- Ajustare fină Phi-3 cu QLora
- Ajustare fină Phi-3 cu Azure AI Foundry
- Ajustare fină Phi-3 cu Azure ML CLI/SDK
- Ajustare fină cu Microsoft Olive
- Ajustare fină cu Microsoft Olive Hands-On Lab
- Ajustare fină Phi-3-vision cu Weights and Bias
- Ajustare fină Phi-3 cu Apple MLX Framework
- Ajustare fină Phi-3-vision (suport oficial)
- Ajustare fină Phi-3 cu Kaito AKS , Azure Containers (suport oficial)
- Ajustare fină Phi-3 și 3.5 Vision
-
Laborator Practic
-
Lucrări și publicații academice de cercetare
- Manualele sunt tot ce ai nevoie II: raport tehnic phi-1.5
- Raport tehnic Phi-3: un model lingvistic foarte capabil local pe telefonul tău
- Raport tehnic Phi-4
- Raport tehnic Phi-4-Mini: modele multilingvistice compacte dar puternice prin Mixture-of-LoRAs
- Optimizarea modelelor lingvistice mici pentru apelarea funcțiilor în vehicul
- (WhyPHI) Ajustarea fină a PHI-3 pentru răspunsuri la întrebări cu alegere multiplă: metodologie, rezultate și provocări
- Raportul tehnic Phi-4-reasoning
- Raportul tehnic Phi-4-mini-reasoning
Poți învăța cum să folosești Microsoft Phi și cum să construiești soluții E2E pe diferitele tale dispozitive hardware. Pentru a experimenta Phi personal, începe prin a te juca cu modelele și a personaliza Phi pentru scenariile tale folosind Catalogul de modele Azure AI Foundry. Poți afla mai multe la Începerea utilizării Azure AI Foundry
Teren de joacă
Fiecărui model îi corespunde un teren de joacă dedicat pentru testarea modelului Azure AI Playground.
Poți învăța cum să folosești Microsoft Phi și cum să construiești soluții E2E pe diferitele tale dispozitive hardware. Pentru a experimenta Phi personal, începe prin a te juca cu modelul și a personaliza Phi pentru scenariile tale folosind Catalogul de modele GitHub. Poți afla mai multe la Începerea utilizării Catalogului de modele GitHub
Teren de joacă
Fiecărui model îi corespunde un teren de joacă dedicat pentru testarea modelului.
Poți găsi modelul și pe Hugging Face
Teren de joacă
Terenul de joacă Hugging Chat
Echipa noastră produce și alte cursuri! Consultă-le:
Microsoft este dedicat să ajute clienții să folosească produsele noastre AI în mod responsabil, împărtășind învățămintele noastre și construind parteneriate bazate pe încredere prin instrumente precum Notele de transparență și Evaluările de impact. Multe dintre aceste resurse pot fi găsite la https://aka.ms/RAI.
Abordarea Microsoft privind AI responsabilă se bazează pe principiile noastre AI de corectitudine, fiabilitate și siguranță, confidențialitate și securitate, incluzivitate, transparență și responsabilitate.
Modelele la scară largă pentru limbaj natural, imagine și voce - cum sunt cele folosite în acest exemplu - pot avea comportamente potențial nedrepte, nesigure sau ofensatoare, cauzând astfel prejudicii. Te rugăm să consulți Nota de transparență a serviciului Azure OpenAI pentru a fi informat despre riscuri și limitări.
Abordarea recomandată pentru a atenua aceste riscuri este să incluzi un sistem de siguranță în arhitectura ta care să poată detecta și preveni comportamentul dăunător. Azure AI Content Safety oferă un strat independent de protecție, capabil să detecteze conținut dăunător generat de utilizatori și AI în aplicații și servicii. Azure AI Content Safety include API-uri pentru text și imagine care îți permit să detectezi materialele dăunătoare. În Azure AI Foundry, serviciul Content Safety îți permite să vizualizezi, explorezi și să încerci coduri de probă pentru detectarea conținutului dăunător în diferite modalități. Următoarea documentație quickstart te ghidează prin modul de efectuare a cererilor către serviciu. Un alt aspect de luat în considerare este performanța generală a aplicației. În cazul aplicațiilor multi-modale și multi-modele, considerăm că performanța înseamnă că sistemul funcționează așa cum te aștepți tu și utilizatorii tăi, inclusiv să nu genereze rezultate dăunătoare. Este important să evaluezi performanța aplicației tale generale folosind evaluatori de performanță, calitate, risc și siguranță. De asemenea, ai posibilitatea să creezi și să evaluezi folosind evaluatori personalizați.
Poți evalua aplicația ta AI în mediul tău de dezvoltare folosind Azure AI Evaluation SDK. Având un set de date de test sau un obiectiv, generațiile aplicației tale AI generative sunt măsurate cantitativ cu evaluatori încorporați sau evaluatori personalizați după alegerea ta. Pentru a începe cu SDK-ul de evaluare azure ai pentru a-ți evalua sistemul, poți urma ghidul rapid. Odată ce execuți o rulare de evaluare, poți vizualiza rezultatele în Azure AI Foundry.
Acest proiect poate conține mărci comerciale sau logo-uri pentru proiecte, produse sau servicii. Utilizarea autorizată a mărcilor comerciale sau logo-urilor Microsoft este supusă și trebuie să respecte Ghidurile pentru mărci comerciale și brand Microsoft. Utilizarea mărcilor comerciale sau logo-urilor Microsoft în versiunile modificate ale acestui proiect nu trebuie să creeze confuzie sau să implice sponsorizarea Microsoft. Orice utilizare a mărcilor comerciale sau logo-urilor unor terțe părți este supusă politicilor acelor terțe părți.
Dacă întâmpini dificultăți sau ai întrebări despre construirea aplicațiilor AI, alătură-te:
Dacă ai feedback despre produs sau erori în timpul construirii, vizitează:
Declinare de responsabilitate: Acest document a fost tradus folosind serviciul de traducere AI Co-op Translator. Deși ne străduim pentru acuratețe, vă rugăm să rețineți că traducerile automate pot conține erori sau inexactități. Documentul original în limba sa de origine trebuie considerat sursa autorizată. Pentru informații critice, se recomandă traducerea profesională realizată de un specialist uman. Nu ne asumăm răspunderea pentru eventualele neînțelegeri sau interpretări greșite rezultate din utilizarea acestei traduceri.
