Deze gids helpt je bij het opzetten van je lokale omgeving om het Phi-3 model te draaien met Ollama. Je kunt het model op verschillende manieren gebruiken, waaronder via GitHub Codespaces, VS Code Dev Containers of je eigen lokale omgeving.
Je kunt deze template virtueel draaien met GitHub Codespaces. De knop opent een webgebaseerde VS Code-omgeving in je browser:
Een gerelateerde optie is VS Code Dev Containers, waarmee je het project lokaal in VS Code opent met de Dev Containers extensie:
-
Start Docker Desktop (installeer het als je het nog niet hebt)
-
Open het project:
-
In het VS Code-venster dat opent, zodra de projectbestanden geladen zijn (dit kan enkele minuten duren), open je een terminalvenster.
-
Ga verder met de deploy-stappen
-
Zorg dat de volgende tools geïnstalleerd zijn:
-
Vraag Ollama om het phi3:mini model te downloaden en te starten:
ollama run phi3:mini
Dit duurt een paar minuten om het model te downloaden.
-
Zodra je "success" in de output ziet, kun je een bericht naar dat model sturen via de prompt.
>>> Write a haiku about hungry hippos
-
Na enkele seconden zou je een responsstroom van het model moeten zien.
-
Om meer te leren over verschillende technieken met taalmodellen, open je de Python-notebook ollama.ipynb en voer je elke cel uit. Als je een ander model dan 'phi3:mini' gebruikt, pas dan de
MODEL_NAMEaan in de eerste cel. -
Om een gesprek te voeren met het phi3:mini model vanuit Python, open je het Python-bestand chat.py en voer je het uit. Je kunt de
MODEL_NAMEbovenaan het bestand aanpassen indien nodig, en je kunt ook het systeembericht wijzigen of few-shot voorbeelden toevoegen als je dat wilt.
Disclaimer:
Dit document is vertaald met behulp van de AI-vertalingsdienst Co-op Translator. Hoewel we streven naar nauwkeurigheid, dient u er rekening mee te houden dat geautomatiseerde vertalingen fouten of onnauwkeurigheden kunnen bevatten. Het originele document in de oorspronkelijke taal moet als de gezaghebbende bron worden beschouwd. Voor cruciale informatie wordt professionele menselijke vertaling aanbevolen. Wij zijn niet aansprakelijk voor eventuele misverstanden of verkeerde interpretaties die voortvloeien uit het gebruik van deze vertaling.