Skip to content

Latest commit

 

History

History
62 lines (36 loc) · 4.04 KB

File metadata and controls

62 lines (36 loc) · 4.04 KB

Phi-3をローカルで始める

このガイドでは、Ollamaを使ってPhi-3モデルをローカル環境で実行するための設定方法を説明します。モデルはGitHub Codespaces、VS Code Dev Containers、またはローカル環境など、いくつかの方法で実行できます。

環境設定

GitHub Codespaces

GitHub Codespacesを使うと、このテンプレートをブラウザ上のVS Codeで仮想的に実行できます。以下のボタンをクリックすると、ブラウザでVS Codeが開きます:

  1. テンプレートを開く(数分かかる場合があります):

    Open in GitHub Codespaces

  2. ターミナルウィンドウを開く

VS Code Dev Containers

⚠️ この方法はDocker Desktopに最低16GBのRAMが割り当てられている場合のみ動作します。16GB未満の場合は、GitHub Codespacesの方法ローカル環境でのセットアップを試してください。

関連する方法として、VS Code Dev Containersがあります。これはDev Containers拡張機能を使い、ローカルのVS Codeでプロジェクトを開きます:

  1. Docker Desktopを起動(未インストールの場合はインストールしてください)

  2. プロジェクトを開く:

    Open in Dev Containers

  3. 開いたVS Codeウィンドウで、プロジェクトファイルが表示されるまで(数分かかる場合があります)待ち、ターミナルウィンドウを開く

  4. デプロイ手順に進む

ローカル環境

  1. 以下のツールがインストールされていることを確認してください:

モデルのテスト

  1. Ollamaにphi3:miniモデルをダウンロードして実行するよう依頼します:

    ollama run phi3:mini

    モデルのダウンロードには数分かかります。

  2. 出力に「success」と表示されたら、プロンプトからそのモデルにメッセージを送信できます。

    >>> Write a haiku about hungry hippos
  3. 数秒後、モデルからの応答ストリームが表示されるはずです。

  4. 言語モデルで使われるさまざまな手法について学ぶには、Pythonノートブックollama.ipynbを開き、各セルを実行してください。'phi3:mini'以外のモデルを使った場合は、最初のセルのMODEL_NAMEを変更してください。

  5. Pythonからphi3:miniモデルと会話したい場合は、Pythonファイルchat.pyを開いて実行してください。ファイルの先頭にあるMODEL_NAMEは必要に応じて変更でき、システムメッセージの修正やfew-shot例の追加も可能です。

免責事項
本書類はAI翻訳サービス「Co-op Translator」を使用して翻訳されました。正確性を期しておりますが、自動翻訳には誤りや不正確な部分が含まれる可能性があります。原文の言語によるオリジナル文書が正式な情報源とみなされるべきです。重要な情報については、専門の人間による翻訳を推奨します。本翻訳の利用により生じた誤解や誤訳について、当方は一切の責任を負いかねます。