このガイドでは、Ollamaを使ってPhi-3モデルをローカル環境で実行するための設定方法を説明します。モデルはGitHub Codespaces、VS Code Dev Containers、またはローカル環境など、いくつかの方法で実行できます。
GitHub Codespacesを使うと、このテンプレートをブラウザ上のVS Codeで仮想的に実行できます。以下のボタンをクリックすると、ブラウザでVS Codeが開きます:
関連する方法として、VS Code Dev Containersがあります。これはDev Containers拡張機能を使い、ローカルのVS Codeでプロジェクトを開きます:
-
Docker Desktopを起動(未インストールの場合はインストールしてください)
-
プロジェクトを開く:
-
開いたVS Codeウィンドウで、プロジェクトファイルが表示されるまで(数分かかる場合があります)待ち、ターミナルウィンドウを開く
-
デプロイ手順に進む
-
以下のツールがインストールされていることを確認してください:
-
Ollamaにphi3:miniモデルをダウンロードして実行するよう依頼します:
ollama run phi3:mini
モデルのダウンロードには数分かかります。
-
出力に「success」と表示されたら、プロンプトからそのモデルにメッセージを送信できます。
>>> Write a haiku about hungry hippos
-
数秒後、モデルからの応答ストリームが表示されるはずです。
-
言語モデルで使われるさまざまな手法について学ぶには、Pythonノートブックollama.ipynbを開き、各セルを実行してください。'phi3:mini'以外のモデルを使った場合は、最初のセルの
MODEL_NAMEを変更してください。 -
Pythonからphi3:miniモデルと会話したい場合は、Pythonファイルchat.pyを開いて実行してください。ファイルの先頭にある
MODEL_NAMEは必要に応じて変更でき、システムメッセージの修正やfew-shot例の追加も可能です。
免責事項:
本書類はAI翻訳サービス「Co-op Translator」を使用して翻訳されました。正確性を期しておりますが、自動翻訳には誤りや不正確な部分が含まれる可能性があります。原文の言語によるオリジナル文書が正式な情報源とみなされるべきです。重要な情報については、専門の人間による翻訳を推奨します。本翻訳の利用により生じた誤解や誤訳について、当方は一切の責任を負いかねます。