Skip to content

Latest commit

 

History

History
62 lines (36 loc) · 3.55 KB

File metadata and controls

62 lines (36 loc) · 3.55 KB

Aan de slag met Phi-3 lokaal

Deze gids helpt je bij het opzetten van je lokale omgeving om het Phi-3 model te draaien met Ollama. Je kunt het model op verschillende manieren gebruiken, waaronder via GitHub Codespaces, VS Code Dev Containers of je eigen lokale omgeving.

Omgevingsinstelling

GitHub Codespaces

Je kunt deze template virtueel draaien met GitHub Codespaces. De knop opent een webgebaseerde VS Code-omgeving in je browser:

  1. Open de template (dit kan enkele minuten duren):

    Open in GitHub Codespaces

  2. Open een terminalvenster

VS Code Dev Containers

⚠️ Deze optie werkt alleen als je Docker Desktop minimaal 16 GB RAM heeft toegewezen. Heb je minder dan 16 GB RAM, probeer dan de GitHub Codespaces optie of zet het lokaal op.

Een gerelateerde optie is VS Code Dev Containers, waarmee je het project lokaal in VS Code opent met de Dev Containers extensie:

  1. Start Docker Desktop (installeer het als je het nog niet hebt)

  2. Open het project:

    Open in Dev Containers

  3. In het VS Code-venster dat opent, zodra de projectbestanden geladen zijn (dit kan enkele minuten duren), open je een terminalvenster.

  4. Ga verder met de deploy-stappen

Lokale omgeving

  1. Zorg dat de volgende tools geïnstalleerd zijn:

Test het model

  1. Vraag Ollama om het phi3:mini model te downloaden en te starten:

    ollama run phi3:mini

    Dit duurt een paar minuten om het model te downloaden.

  2. Zodra je "success" in de output ziet, kun je een bericht naar dat model sturen via de prompt.

    >>> Write a haiku about hungry hippos
  3. Na enkele seconden zou je een responsstroom van het model moeten zien.

  4. Om meer te leren over verschillende technieken met taalmodellen, open je de Python-notebook ollama.ipynb en voer je elke cel uit. Als je een ander model dan 'phi3:mini' gebruikt, pas dan de MODEL_NAME aan in de eerste cel.

  5. Om een gesprek te voeren met het phi3:mini model vanuit Python, open je het Python-bestand chat.py en voer je het uit. Je kunt de MODEL_NAME bovenaan het bestand aanpassen indien nodig, en je kunt ook het systeembericht wijzigen of few-shot voorbeelden toevoegen als je dat wilt.

Disclaimer:
Dit document is vertaald met behulp van de AI-vertalingsdienst Co-op Translator. Hoewel we streven naar nauwkeurigheid, dient u er rekening mee te houden dat geautomatiseerde vertalingen fouten of onnauwkeurigheden kunnen bevatten. Het originele document in de oorspronkelijke taal moet als de gezaghebbende bron worden beschouwd. Voor cruciale informatie wordt professionele menselijke vertaling aanbevolen. Wij zijn niet aansprakelijk voor eventuele misverstanden of verkeerde interpretaties die voortvloeien uit het gebruik van deze vertaling.