Hugging Face — це дуже популярна спільнота в галузі ШІ з багатими даними та відкритими моделями. Різні виробники публікують відкриті LLM та SLM через Hugging Face, такі як Microsoft, Meta, Mistral, Apple, Google тощо.
Сімейство Microsoft Phi вже доступне на Hugging Face. Розробники можуть завантажити відповідну модель Phi Family залежно від сценаріїв та бізнес-завдань. Окрім розгортання моделей Phi у форматі Pytorch на Hugging Face, ми також випустили квантизовані моделі у форматах GGUF та ONNX, щоб надати кінцевим користувачам вибір.
Ви можете завантажити модель Phi Family за цим посиланням
Microsoft Models на Hugging Face
-
Phi-1 / 1.5 https://huggingface.co/collections/microsoft/phi-1-6626e29134744e94e222d572
-
Phi-3 / 3.5 https://huggingface.co/collections/microsoft/phi-3-6626e15e9585a200d2d761e3
-
Phi-4 https://huggingface.co/collections/microsoft/phi-4-677e9380e514feb5577a40e4
-
Phi-4-reasoning https://huggingface.co/microsoft/Phi-4-reasoning
-
Phi-4-reasoning Plus https://huggingface.co/microsoft/Phi-4-reasoning-plus
-
Phi-4-mini-reasoning https://huggingface.co/microsoft/Phi-4-mini-reasoning
Ви можете завантажити модель різними способами, наприклад, встановивши Hugging Face CLI SDK або використовуючи git clone.
- Встановіть Hugging Face CLI
pip install -U "huggingface_hub[cli]"
- Увійдіть у Hugging Face за допомогою huggingface-cli
Увійдіть у Hugging Face, використовуючи User Access Token зі сторінки Settings
huggingface-cli login --token $HF_TOKEN --add-to-git-credential
- Завантаження
Ви можете завантажити модель і зберегти її в кеші
huggingface-cli download microsoft/phi-4
Також можна вказати власне розташування для збереження
huggingface-cli download microsoft/phi-4 --local-dir $YOUR_PATH
Ви також можете завантажити модель за допомогою git clone
git lfs install
git clone https://huggingface.co/microsoft/phi-4
- Встановлення бібліотеки transformers
pip install transformers -U
- Запуск цього коду у VSCode
import transformers
pipeline = transformers.pipeline(
"text-generation",
model="microsoft/phi-4",
model_kwargs={"torch_dtype": "auto"},
device_map="auto",
)
messages = [
{"role": "user", "content": "I have $20,000 in my savings account, where I receive a 4% profit per year and payments twice a year. Can you please tell me how long it will take for me to become a millionaire? Also, can you please explain the math step by step as if you were explaining it to an uneducated person?"},
]
outputs = pipeline(messages, max_new_tokens=2048)
print(outputs[0]["generated_text"][-1])Відмова від відповідальності:
Цей документ було перекладено за допомогою сервісу автоматичного перекладу Co-op Translator. Хоча ми прагнемо до точності, будь ласка, майте на увазі, що автоматичні переклади можуть містити помилки або неточності. Оригінальний документ рідною мовою слід вважати авторитетним джерелом. Для критично важливої інформації рекомендується звертатися до професійного людського перекладу. Ми не несемо відповідальності за будь-які непорозуміння або неправильні тлумачення, що виникли внаслідок використання цього перекладу.