Phi es una serie de modelos de IA de código abierto desarrollados por Microsoft.
Actualmente, Phi es el modelo de lenguaje pequeño (SLM) más poderoso y rentable, con muy buenos resultados en múltiples idiomas, razonamiento, generación de texto/chat, codificación, imágenes, audio y otros escenarios.
Puedes desplegar Phi en la nube o en dispositivos edge, y puedes construir fácilmente aplicaciones de IA generativa con potencia computacional limitada.
Sigue estos pasos para comenzar a usar estos recursos:
- Haz fork del repositorio: Haz clic en
- Clona el repositorio:
git clone https://github.com/microsoft/PhiCookBook.git - Únete a la Comunidad Discord de Microsoft AI y conoce expertos y otros desarrolladores
Árabe | Bengalí | Búlgaro | Birmano (Myanmar) | Chino (Simplificado) | Chino (Tradicional, Hong Kong) | Chino (Tradicional, Macao) | Chino (Tradicional, Taiwán) | Croata | Checo | Danés | Neerlandés | Estonio | Finlandés | Francés | Alemán | Griego | Hebreo | Hindi | Húngaro | Indonesio | Italiano | Japonés | Kannada | Coreano | Lituano | Malayo | Malabar | Maratí | Nepalí | Pidgin Nigeriano | Noruego | Persa (Farsi) | Polaco | Portugués (Brasil) | Portugués (Portugal) | Punjabi (Gurmukhi) | Rumano | Ruso | Serbio (Cirílico) | Eslovaco | Esloveno | Español | Swahili | Sueco | Tagalo (Filipino) | Tamil | Telugu | Tailandés | Turco | Ucraniano | Urdu | Vietnamita
¿Prefieres clonar localmente?
Este repositorio incluye más de 50 traducciones al idioma que aumentan significativamente el tamaño de la descarga. Para clonar sin traducciones, usa sparse checkout:
Bash / macOS / Linux:
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'CMD (Windows):
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"Esto te da todo lo que necesitas para completar el curso con una descarga mucho más rápida.
-
Introducción
-
Inferencia Phi en diferentes entornos
-
Inferencia Familia Phi
- Inferencia Phi en iOS
- Inferencia Phi en Android
- Inferencia Phi en Jetson
- Inferencia Phi en AI PC
- Inferencia Phi con Apple MLX Framework
- Inferencia Phi en Servidor Local
- Inferencia Phi en Servidor Remoto usando AI Toolkit
- Inferencia Phi con Rust
- Inferencia Phi--Visión en Local
- Inferencia Phi con Kaito AKS, Azure Containers(soporte oficial)
-
Evaluación Phi
-
RAG con Azure AI Search
-
Muestras de desarrollo de aplicaciones Phi
-
Aplicaciones de Texto y Chat
- Muestras Phi-4 🆕
- Muestras Phi-3 / 3.5
- Chatbot local en el navegador usando Phi3, ONNX Runtime Web y WebGPU
- Chat OpenVino
- Modelo múltiple - Phi-3-mini interactivo y OpenAI Whisper
- MLFlow - Creando un wrapper y usando Phi-3 con MLFlow
- Optimización de modelos - Cómo optimizar el modelo Phi-3-min para ONNX Runtime Web con Olive
- Aplicación WinUI3 con Phi-3 mini-4k-instruct-onnx
- Ejemplo de aplicación de notas con AI Multimodelo en WinUI3
- Ajuste fino e integración de modelos personalizados Phi-3 con Prompt flow
- Ajuste fino e integración de modelos personalizados Phi-3 con Prompt flow en Azure AI Foundry
- Evaluación del modelo Phi-3 / Phi-3.5 ajustado fino en Azure AI Foundry con enfoque en los principios de IA responsable de Microsoft
- [📓] Ejemplo de predicción de lenguaje Phi-3.5-mini-instruct (chino/inglés)
- Chatbot RAG Phi-3.5-Instruct WebGPU
- Uso de GPU de Windows para crear solución Prompt flow con Phi-3.5-Instruct ONNX
- Uso de Microsoft Phi-3.5 tflite para crear una app Android
- Ejemplo Q&A .NET usando modelo ONNX Phi-3 local con Microsoft.ML.OnnxRuntime
- App consola chat .NET con Semantic Kernel y Phi-3
-
Ejemplos de código del SDK de Inferencia Azure AI
-
Ejemplos de razonamiento avanzado
-
Demos
-
Ejemplos de visión
- Ejemplos Phi-4 🆕
- Ejemplos Phi-3 / 3.5
- [📓]Phi-3-vision-Texto de imagen a texto
- Phi-3-vision-ONNX
- [📓]Phi-3-vision Embedding CLIP
- DEMO: Reciclaje Phi-3
- Phi-3-vision - Asistente de lenguaje visual - con Phi3-Vision y OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Ejemplo Phi-3.5 Vision multi-frame o multi-imagen
- Modelo ONNX local Phi-3 Vision usando Microsoft.ML.OnnxRuntime .NET
- Modelo ONNX local Phi-3 Vision basado en menú usando Microsoft.ML.OnnxRuntime .NET
-
Ejemplos de matemáticas
- Ejemplos Phi-4-Mini-Flash-Reasoning-Instruct 🆕 Demo de matemáticas con Phi-4-Mini-Flash-Reasoning-Instruct
-
Ejemplos de audio
-
Ejemplos MOE
-
Ejemplos de llamadas a funciones
-
Ejemplos de mezcla multimodal
-
-
Ejemplos de ajuste fino Phi
- Escenarios de ajuste fino
- Ajuste fino vs RAG
- Permitir que Phi-3 se convierta en un experto en la industria
- Ajuste fino de Phi-3 con AI Toolkit para VS Code
- Ajuste fino de Phi-3 con Azure Machine Learning Service
- Ajuste fino de Phi-3 con Lora
- Ajuste fino de Phi-3 con QLora
- Ajuste fino de Phi-3 con Azure AI Foundry
- Ajuste fino de Phi-3 con Azure ML CLI/SDK
- Ajuste fino con Microsoft Olive
- Laboratorio práctico de ajuste fino con Microsoft Olive
- Ajuste fino de Phi-3-vision con Weights and Bias
- Ajuste fino de Phi-3 con Apple MLX Framework
- Ajuste fino de Phi-3-vision (soporte oficial)
- Ajuste fino Phi-3 con Kaito AKS, Azure Containers (soporte oficial)
- Ajuste fino Phi-3 y 3.5 Vision
-
Laboratorio práctico
-
Artículos Académicos y Publicaciones
- Los libros de texto son todo lo que necesitas II: informe técnico de phi-1.5
- Informe Técnico Phi-3: Un modelo de lenguaje altamente capaz localmente en tu teléfono
- Informe Técnico Phi-4
- Informe Técnico Phi-4-Mini: Modelos de lenguaje multimodales compactos pero potentes mediante mezcla de LoRAs
- Optimización de modelos de lenguaje pequeños para llamadas de función en vehículos
- (WhyPHI) Ajuste fino de PHI-3 para respuestas a preguntas de opción múltiple: metodología, resultados y desafíos
- Informe Técnico Phi-4-razón
- Informe Técnico Phi-4-mini-razón
Puedes aprender cómo usar Microsoft Phi y cómo construir soluciones E2E en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, empieza a jugar con los modelos y personalizar Phi para tus escenarios utilizando el Catálogo de Modelos de Azure AI Foundry. Puedes aprender más en Comenzando con Azure AI Foundry
Playground
Cada modelo tiene un playground dedicado para probar el modelo en Azure AI Playground.
Puedes aprender cómo usar Microsoft Phi y cómo construir soluciones E2E en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, empieza a jugar con el modelo y personalizar Phi para tus escenarios usando el Catálogo de modelos de GitHub. Puedes aprender más en Comenzando con Catálogo de modelos de GitHub
Playground
Cada modelo tiene un playground dedicado para probar el modelo.
También puedes encontrar el modelo en Hugging Face
Playground
Playground de Hugging Chat
¡Nuestro equipo produce otros cursos! Consulta:
Microsoft está comprometido en ayudar a nuestros clientes a usar nuestros productos de IA de manera responsable, compartiendo nuestros aprendizajes y construyendo alianzas basadas en la confianza mediante herramientas como Notas de Transparencia y Evaluaciones de Impacto. Muchos de estos recursos pueden encontrarse en https://aka.ms/RAI.
El enfoque de Microsoft hacia la IA responsable se fundamenta en nuestros principios de IA de justicia, fiabilidad y seguridad, privacidad y protección, inclusividad, transparencia y responsabilidad.
Los modelos a gran escala de lenguaje natural, imagen y voz —como los utilizados en este ejemplo— pueden potencialmente comportarse de manera injusta, poco fiable o ofensiva, causando daños. Por favor, consulta la nota de transparencia del servicio Azure OpenAI para estar informado sobre riesgos y limitaciones.
El enfoque recomendado para mitigar estos riesgos es incluir un sistema de seguridad en tu arquitectura que pueda detectar y prevenir comportamientos dañinos. Azure AI Content Safety proporciona una capa independiente de protección, capaz de detectar contenido dañino generado por usuarios y por IA en aplicaciones y servicios. Azure AI Content Safety incluye APIs de texto e imagen que permiten detectar material dañino. Dentro de Azure AI Foundry, el servicio Content Safety permite ver, explorar y probar código de muestra para detectar contenido dañino a través de diferentes modalidades. La siguiente documentación de inicio rápido te guía para hacer solicitudes al servicio. Otro aspecto a tener en cuenta es el rendimiento general de la aplicación. Con aplicaciones multimodales y multimodelos, consideramos que el rendimiento significa que el sistema funciona como tú y tus usuarios esperan, incluyendo no generar resultados dañinos. Es importante evaluar el rendimiento de toda tu aplicación utilizando los evaluadores de Rendimiento, Calidad, Riesgo y Seguridad. También tienes la capacidad de crear y evaluar con evaluadores personalizados.
Puedes evaluar tu aplicación de IA en tu entorno de desarrollo utilizando el Azure AI Evaluation SDK. Dado un conjunto de datos de prueba o un objetivo, las generaciones de tu aplicación de IA generativa se miden cuantitativamente con evaluadores integrados o evaluadores personalizados de tu elección. Para comenzar con el azure ai evaluation sdk para evaluar tu sistema, puedes seguir la guía de inicio rápido. Una vez que ejecutes una evaluación, puedes visualizar los resultados en Azure AI Foundry.
Este proyecto puede contener marcas registradas o logotipos de proyectos, productos o servicios. El uso autorizado de marcas o logotipos de Microsoft está sujeto a y debe seguir las Directrices de marcas y marcas comerciales de Microsoft. El uso de marcas o logotipos de Microsoft en versiones modificadas de este proyecto no debe causar confusión ni implicar patrocinio por parte de Microsoft. Cualquier uso de marcas o logotipos de terceros está sujeto a las políticas de esos terceros.
Si te quedas atascado o tienes alguna pregunta sobre cómo crear aplicaciones de IA, únete a:
Si tienes comentarios sobre el producto o errores durante la creación, visita:
Aviso legal: Este documento ha sido traducido utilizando el servicio de traducción automática Co-op Translator. Aunque nos esforzamos por la precisión, tenga en cuenta que las traducciones automatizadas pueden contener errores o inexactitudes. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas derivadas del uso de esta traducción.
