@@ -21,45 +21,45 @@ VITSに基づく使いやすい音声変換(voice changer)framework<br><br>
21
21
22
22
[ ** English** ] ( ./README.en.md ) | [ ** 中文简体** ] ( ../README.md ) | [ ** 日本語** ] ( ./README.ja.md )
23
23
24
- > デモ動画は[ こちら] ( https://www.bilibili.com/video/BV1pm4y1z7Gm/ ) でご覧ください
24
+ > デモ動画は[ こちら] ( https://www.bilibili.com/video/BV1pm4y1z7Gm/ ) でご覧ください。
25
25
26
26
> RVCによるリアルタイム音声変換: [ w-okada/voice-changer] ( https://github.com/w-okada/voice-changer )
27
27
28
- > 基底modelを訓練(training)したのは、約50時間の高品質なオープンソースのデータセット。 著作権侵害を心配することなく使用できるように。
28
+ > 著作権侵害を心配することなく使用できるように、基底モデルは約50時間の高品質なオープンソースデータセットで訓練されています 。
29
29
30
- > 今後は次々と使用許可のある高品質歌声資料集を追加し、基底modelを訓練する 。
30
+ > 今後も、次々と使用許可のある高品質な歌声の資料集を追加し、基底モデルを訓練する予定です 。
31
31
32
32
## はじめに
33
- 本repoは下記の特徴があります
33
+ 本リポジトリには下記の特徴があります。
34
34
35
- + 調子(tone)の漏洩が下がれるためtop1検索で源特徴量を訓練集特徴量に置換
36
- + 古い又は安いGPUでも高速に訓練できる
37
- + 小さい訓練集でもかなりいいmodelを得られる(10分以上の低noise音声を推奨)
38
- + modelを融合し音色をmergeできる( ckpt processing-> ckpt mergeで使用)
39
- + 使いやすいWebUI
40
- + UVR5 Modelも含めるため人声とBGMを素早く分離できる
35
+ + Top1検索を用いることで、生の特徴量を訓練用データセット特徴量に変換し、トーンリーケージを削減します。
36
+ + 比較的貧弱なGPUでも、高速かつ簡単に訓練できます。
37
+ + 少量のデータセットからでも、比較的良い結果を得ることができます。(10分以上のノイズの少ない音声を推奨します。)
38
+ + モデルを融合することで、音声を混ぜることができます。( ckpt processingタブの、 ckpt mergeを使用します。)
39
+ + 使いやすいWebUI。
40
+ + UVR5 Modelも含んでいるため、人の声とBGMを素早く分離できます。
41
41
42
42
## 環境構築
43
- poetryで依存関係をinstallすることをお勧めします 。
43
+ Poetryで依存関係をインストールすることをお勧めします 。
44
44
45
- 下記のcommandsは 、Python3.8以上の環境で実行する必要があります:
45
+ 下記のコマンドは 、Python3.8以上の環境で実行する必要があります:
46
46
``` bash
47
- # PyTorch関連の依存関係をinstall。install済の場合はskip
47
+ # PyTorch関連の依存関係をインストール。インストール済の場合は省略。
48
48
# 参照先: https://pytorch.org/get-started/locally/
49
49
pip install torch torchvision torchaudio
50
50
51
51
# Windows+ Nvidia Ampere Architecture(RTX30xx)の場合、 #21 に従い、pytorchに対応するcuda versionを指定する必要があります。
52
52
# pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117
53
53
54
- # PyTorch関連の依存関係をinstall。install済の場合はskip
54
+ # PyTorch関連の依存関係をインストール。インストール済の場合は省略。
55
55
# 参照先: https://python-poetry.org/docs/#installation
56
56
curl -sSL https://install.python-poetry.org | python3 -
57
57
58
- # Poetry経由で依存関係をinstall
58
+ # Poetry経由で依存関係をインストール
59
59
poetry install
60
60
```
61
61
62
- pipでも依存関係のinstallが可能です :
62
+ pipでも依存関係のインストールが可能です :
63
63
64
64
** 注意** :` faiss 1.7.2 ` は` macOS ` で` Segmentation Fault: 11 ` を起こすので、` requirements.txt ` の該当行を ` faiss-cpu==1.7.0 ` に変更してください。
65
65
@@ -68,28 +68,28 @@ pip install -r requirements.txt
68
68
```
69
69
70
70
## 基底modelsを準備
71
- RVCは推論/訓練のために、様々な事前訓練を行った基底modelsが必要です 。
71
+ RVCは推論/訓練のために、様々な事前訓練を行った基底モデルを必要とします 。
72
72
73
73
modelsは[ Hugging Face space] ( https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/ ) からダウンロードできます。
74
74
75
- 以下は、RVCに必要な基底modelsやその他のfilesの一覧です 。
75
+ 以下は、RVCに必要な基底モデルやその他のファイルの一覧です 。
76
76
``` bash
77
77
hubert_base.pt
78
78
79
79
./pretrained
80
80
81
81
./uvr5_weights
82
82
83
- # ffmpegがすでにinstallされている場合はskip
83
+ # ffmpegがすでにinstallされている場合は省略
84
84
./ffmpeg
85
85
```
86
- その後、下記のcommandでWebUIを起動
86
+ その後、下記のコマンドでWebUIを起動します。
87
87
``` bash
88
88
python infer-web.py
89
89
```
90
- Windowsをお使いの方は、直接に ` RVC-beta.7z ` をダウンロード後に展開し、` go-web.bat ` をclickでWebUIを起動 。(7zipが必要です)
90
+ Windowsをお使いの方は、直接 ` RVC-beta.7z ` をダウンロード後に展開し、` go-web.bat ` をクリックすることで、WebUIを起動することができます 。(7zipが必要です。 )
91
91
92
- また、repoに [ 小白简易教程.doc] ( ./小白简易教程.doc ) がありますので、参考にしてください(中国語版のみ)。
92
+ また、リポジトリに [ 小白简易教程.doc] ( ./小白简易教程.doc ) がありますので、参考にしてください(中国語版のみ)。
93
93
94
94
## 参考プロジェクト
95
95
+ [ ContentVec] ( https://github.com/auspicious3000/contentvec/ )
0 commit comments