We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
1 parent 20af81d commit ad1a24dCopy full SHA for ad1a24d
README.md
@@ -9,7 +9,7 @@
9
- 既存の日本語評価データを利用し,マルチモーダルテキスト生成タスクの評価データセットに変換して提供する.
10
- ユーザが作成した推論結果を用いて,タスクごとに設定された評価メトリクスを計算する.
11
12
-
+
13
14
データフォーマットの詳細,サポートしているデータの一覧については,[DATASET.md](./DATASET.md)を参照ください.
15
@@ -72,6 +72,8 @@ rye sync
72
73
### 評価の実行
74
75
+(現在, llm-jp-eval-mm リポジトリはprivateになっています. examples ディレクトリについては, [https://pypi.org/project/eval-mm/#files](https://pypi.org/project/eval-mm/#files)のSource Distributionにてdownloadできます.)
76
+
77
評価の実行のために,サンプルコード`examples/sample.py`を提供しています.
78
79
`examples/{モデル名}.py`として含まれているモデルは,その推論方法に限りサポートしています.
0 commit comments