Ta vodič ti bo pomagal nastaviti lokalno okolje za zagon modela Phi-3 z uporabo Ollama. Model lahko zaženeš na več načinov, vključno z GitHub Codespaces, VS Code Dev Containers ali v svojem lokalnem okolju.
Ta predlogo lahko zaženeš virtualno z uporabo GitHub Codespaces. Gumb bo odprl spletno različico VS Code v tvojem brskalniku:
Sorodna možnost so VS Code Dev Containers, ki bodo odprli projekt v tvojem lokalnem VS Code z uporabo Dev Containers razširitve:
-
Zaženi Docker Desktop (namesti ga, če še ni nameščen)
-
Odpri projekt:
-
V odprtem oknu VS Code, ko se prikažejo datoteke projekta (to lahko traja nekaj minut), odpri terminal.
-
Nadaljuj z koraki za namestitev
-
Prepričaj se, da so nameščena naslednja orodja:
-
Prosi Ollama, naj prenese in zažene model phi3:mini:
ollama run phi3:mini
Prenos modela bo trajal nekaj minut.
-
Ko v izhodu vidiš "success", lahko modelu pošlješ sporočilo iz ukazne vrstice.
>>> Write a haiku about hungry hippos
-
Po nekaj sekundah bi moral prejeti odgovor modela v obliki toka.
-
Če želiš spoznati različne tehnike uporabe jezikovnih modelov, odpri Python zvezek ollama.ipynb in zaženi vsako celico. Če si uporabil model, ki ni 'phi3:mini', spremeni
MODEL_NAMEv prvi celici. -
Za pogovor z modelom phi3:mini iz Pythona odpri Python datoteko chat.py in jo zaženi. Po potrebi lahko spremeniš
MODEL_NAMEna vrhu datoteke, prav tako lahko prilagodiš sistemsko sporočilo ali dodaš nekaj primerov za učenje.
Omejitev odgovornosti:
Ta dokument je bil preveden z uporabo AI prevajalske storitve Co-op Translator. Čeprav si prizadevamo za natančnost, vas opozarjamo, da avtomatizirani prevodi lahko vsebujejo napake ali netočnosti. Izvirni dokument v njegovem izvirnem jeziku velja za avtoritativni vir. Za ključne informacije priporočamo strokovni človeški prevod. Nismo odgovorni za morebitna nesporazume ali napačne interpretacije, ki izhajajo iz uporabe tega prevoda.