@ -20,17 +20,17 @@
## 機能:
## 機能:
1. **Zero-Shot TTS:** たった5秒間の音声サンプルで、即座にテキストからその音声に変換できます。
1. **Zero-Shot TTS:** たった 5 秒間の音声サンプルで、即座にテキストからその音声に変換できます。
2. **Few-Shot TTS:** わずか1分間のトレーニングデータでモデルを微調整し、音声のクオリティを向上。
2. **Few-Shot TTS:** わずか 1 分間のトレーニングデータでモデルを微調整し、音声のクオリティを向上。
3. ** 多言語サポート:** 現在、英語、日本語、韓国語、広東語、中国語をサポートしています。
3. ** 多言語サポート:** 現在、英語、日本語、韓国語、広東語、中国語をサポートしています。
4. **WebUI ツール:** 統合されたツールは、音声と伴奏( BGM等) の分離、トレーニングセットの自動セグメンテーション、ASR( 中国語のみ) 、テキストラベリング等を含むため、初心者の方でもトレーニングデータセットの作成やGPT/SoVITSモデルのトレーニング等を非常に簡単に行えます。
4. **WebUI ツール:** 統合されたツールは、音声と伴奏( BGM 等) の分離、トレーニングセットの自動セグメンテーション、ASR( 中国語のみ) 、テキストラベリング等を含むため、初心者の方でもトレーニングデータセットの作成や GPT/SoVITS モデルのトレーニング等を非常に簡単に行えます。
**[デモ動画](https://www.bilibili.com/video/BV12g4y1m7Uw)をチェック!**
**[デモ動画](https://www.bilibili.com/video/BV12g4y1m7Uw)をチェック!**
声の事前学習無しかつFew-Shotでトレーニングされたモデルのデモ:
声の事前学習無しかつ Few-Shot でトレーニングされたモデルのデモ:
https://github.com/RVC-Boss/GPT-SoVITS/assets/129054828/05bee1fa-bdd8-4d85-9350-80c060ab47fb
https://github.com/RVC-Boss/GPT-SoVITS/assets/129054828/05bee1fa-bdd8-4d85-9350-80c060ab47fb
@ -43,7 +43,7 @@ https://github.com/RVC-Boss/GPT-SoVITS/assets/129054828/05bee1fa-bdd8-4d85-9350-
- Python 3.9, PyTorch 2.0.1, CUDA 11
- Python 3.9, PyTorch 2.0.1, CUDA 11
- Python 3.10.13, PyTorch 2.1.2, CUDA 12.3
- Python 3.10.13, PyTorch 2.1.2, CUDA 12.3
- Python 3.9, PyTorch 2.2.2, macOS 14.4.1 (Apple silicon)
- Python 3.9, PyTorch 2.2.2, macOS 14.4.1 (Apple silicon)
- Python 3.9, PyTorch 2.2.2, CPUデバイス
- Python 3.9, PyTorch 2.2.2, CPU デバイス
_注記: numba==0.56.4 は py< 3.11 が 必 要 で す _
_注記: numba==0.56.4 は py< 3.11 が 必 要 で す _
@ -61,22 +61,22 @@ bash install.sh
### macOS
### macOS
**注: MacでGPUを使用して訓練されたモデルは、他のデバイスで訓練されたモデルと比較して著しく品質が低下するため、当面はCPUを使用して訓練することを強く推奨します。**
**注: Mac で GPU を使用して訓練されたモデルは、他のデバイスで訓練されたモデルと比較して著しく品質が低下するため、当面は CPU を使用して訓練することを強く推奨します。**
1. `xcode-select --install` を実行して、Xcodeコマンドラインツールをインストールします。
1. `xcode-select --install` を実行して、Xcode コマンドラインツールをインストールします。
2. `brew install ffmpeg` を実行してFFmpegをインストールします。
2. `brew install ffmpeg` を実行して FFmpeg をインストールします。
3. 上記の手順を完了した後、以下のコマンドを実行してこのプロジェクトをインストールします。
3. 上記の手順を完了した後、以下のコマンドを実行してこのプロジェクトをインストールします。
```bash
```bash
conda create -n GPTSoVits python=3.9
conda create -n GPTSoVits python=3.9
conda activate GPTSoVits
conda activate GPTSoVits
pip install -r extra-req.txt --no-deps
pip install -r requirements.txt
pip install -r requirements.txt
```
```
### 手動インストール
### 手動インストール
#### FFmpegをインストールします。
#### FFmpeg をインストールします。
##### Conda ユーザー
##### Conda ユーザー
@ -97,6 +97,7 @@ conda install -c conda-forge 'ffmpeg<7'
[ffmpeg.exe ](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffmpeg.exe ) と [ffprobe.exe ](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffprobe.exe ) をダウンロードし、GPT-SoVITS のルートフォルダに置きます。
[ffmpeg.exe ](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffmpeg.exe ) と [ffprobe.exe ](https://huggingface.co/lj1995/VoiceConversionWebUI/blob/main/ffprobe.exe ) をダウンロードし、GPT-SoVITS のルートフォルダに置きます。
##### MacOS ユーザー
##### MacOS ユーザー
```bash
```bash
brew install ffmpeg
brew install ffmpeg
```
```
@ -104,6 +105,7 @@ brew install ffmpeg
#### 依存関係をインストールします
#### 依存関係をインストールします
```bash
```bash
pip install -r extra-req.txt --no-deps
pip install -r requirementx.txt
pip install -r requirementx.txt
```
```
@ -138,17 +140,17 @@ docker run --rm -it --gpus=all --env=is_half=False --volume=G:\GPT-SoVITS-Docker
1. [GPT-SoVITS Models ](https://huggingface.co/lj1995/GPT-SoVITS ) から事前訓練済みモデルをダウンロードし、`GPT_SoVITS/pretrained_models` ディレクトリに配置してください。
1. [GPT-SoVITS Models ](https://huggingface.co/lj1995/GPT-SoVITS ) から事前訓練済みモデルをダウンロードし、`GPT_SoVITS/pretrained_models` ディレクトリに配置してください。
2. [G2PWModel_1.1.zip ](https://paddlespeech.cdn.bcebos.com/Parakeet/released_models/g2p/G2PWModel_1.1.zip ) からモデルをダウンロードし、解凍して `G2PWModel` にリネームし、`GPT_SoVITS/text` ディレクトリに配置してください。( 中国語TTSのみ)
2. [G2PWModel_1.1.zip ](https://paddlespeech.cdn.bcebos.com/Parakeet/released_models/g2p/G2PWModel_1.1.zip ) からモデルをダウンロードし、解凍して `G2PWModel` にリネームし、`GPT_SoVITS/text` ディレクトリに配置してください。(中国語 TTS のみ)
3. UVR5( ボーカル/伴奏( BGM等) 分離 & リバーブ除去の追加機能)の場合は、[UVR5 Weights](https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/uvr5_weights) からモデルをダウンロードし、`tools/uvr5/uvr5_weights` ディレクトリに配置してください。
3. UVR5( ボーカル/伴奏( BGM 等)分離 & リバーブ除去の追加機能)の場合は、[UVR5 Weights](https://huggingface.co/lj1995/VoiceConversionWebUI/tree/main/uvr5_weights) からモデルをダウンロードし、`tools/uvr5/uvr5_weights` ディレクトリに配置してください。
- UVR5でbs_roformerまたはmel_band_roformerモデルを使用する場合、モデルと対応する設定ファイルを手動でダウンロードし、`tools/UVR5/UVR5_weights`フォルダに配置することができます。**モデルファイルと設定ファイルの名前は、拡張子を除いて同じであることを確認してください**。さらに、モデルと設定ファイルの名前には**「roformer」が含まれている必要があります**。これにより、roformerクラスのモデルとして認識されます。
- UVR5 で bs_roformer または mel_band_roformer モデルを使用する場合、モデルと対応する設定ファイルを手動でダウンロードし、`tools/UVR5/UVR5_weights`フォルダに配置することができます。**モデルファイルと設定ファイルの名前は、拡張子を除いて同じであることを確認してください**。さらに、モデルと設定ファイルの名前には**「roformer」が含まれている必要があります**。これにより、roformer クラスのモデルとして認識されます。
- モデル名と設定ファイル名には、**直接モデルタイプを指定することをお勧めします**。例: mel_mand_roformer、bs_roformer。指定しない場合、設定文から特徴を照合して、モデルの種類を特定します。例えば、モデル`bs_roformer_ep_368_sdr_12.9628.ckpt`と対応する設定ファイル`bs_roformer_ep_368_sdr_12.9628.yaml`はペアです。同様に、`kim_mel_band_roformer.ckpt`と`kim_mel_band_roformer.yaml`もペアです。
- モデル名と設定ファイル名には、**直接モデルタイプを指定することをお勧めします**。例: mel_mand_roformer、bs_roformer。指定しない場合、設定文から特徴を照合して、モデルの種類を特定します。例えば、モデル`bs_roformer_ep_368_sdr_12.9628.ckpt`と対応する設定ファイル`bs_roformer_ep_368_sdr_12.9628.yaml`はペアです。同様に、`kim_mel_band_roformer.ckpt`と`kim_mel_band_roformer.yaml`もペアです。
4. 中国語ASR( 追加機能) の場合は、[Damo ASR Model](https://modelscope.cn/models/damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch/files)、[Damo VAD Model](https://modelscope.cn/models/damo/speech_fsmn_vad_zh-cn-16k-common-pytorch/files)、および [Damo Punc Model ](https://modelscope.cn/models/damo/punc_ct-transformer_zh-cn-common-vocab272727-pytorch/files ) からモデルをダウンロードし、`tools/asr/models` ディレクトリに配置してください。
4. 中国語 ASR( 追加機能) の場合は、[Damo ASR Model](https://modelscope.cn/models/damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch/files)、[Damo VAD Model](https://modelscope.cn/models/damo/speech_fsmn_vad_zh-cn-16k-common-pytorch/files)、および [Damo Punc Model ](https://modelscope.cn/models/damo/punc_ct-transformer_zh-cn-common-vocab272727-pytorch/files ) からモデルをダウンロードし、`tools/asr/models` ディレクトリに配置してください。
5. 英語または日本語のASR( 追加機能) を使用する場合は、[Faster Whisper Large V3](https://huggingface.co/Systran/faster-whisper-large-v3) からモデルをダウンロードし、`tools/asr/models` ディレクトリに配置してください。また、[他のモデル](https://huggingface.co/Systran) は、より小さいサイズで高クオリティな可能性があります。
5. 英語または日本語の ASR( 追加機能) を使用する場合は、[Faster Whisper Large V3](https://huggingface.co/Systran/faster-whisper-large-v3) からモデルをダウンロードし、`tools/asr/models` ディレクトリに配置してください。また、[他のモデル](https://huggingface.co/Systran) は、より小さいサイズで高クオリティな可能性があります。
## データセット形式
## データセット形式
@ -169,14 +171,15 @@ vocal_path|speaker_name|language|text
```
```
D:\GPT-SoVITS\xxx/xxx.wav|xxx|en|I like playing Genshin.
D:\GPT-SoVITS\xxx/xxx.wav|xxx|en|I like playing Genshin.
```
```
## 微調整と推論
## 微調整と推論
### WebUIを開く
### WebUI を開く
#### 統合パッケージ利用者
#### 統合パッケージ利用者
`go-webui.bat` をダブルクリックするか、`go-webui.ps1`を使用します。
`go-webui.bat` をダブルクリックするか、`go-webui.ps1`を使用します。
V1に切り替えたい場合は、`go-webui-v1.bat`をダブルクリックするか、`go-webui-v1.ps1`を使用してください。
V1 に切り替えたい場合は、`go-webui-v1.bat`をダブルクリックするか、`go-webui-v1.ps1`を使用してください。
#### その他
#### その他
@ -184,12 +187,13 @@ V1に切り替えたい場合は、`go-webui-v1.bat`をダブルクリックす
python webui.py < 言語(オプション)>
python webui.py < 言語(オプション)>
```
```
V1に切り替えたい場合は
V1 に切り替えたい場合は
```bash
```bash
python webui.py v1 < 言語(オプション)>
python webui.py v1 < 言語(オプション)>
```
```
またはWebUIで手動でバージョンを切り替えてください。
または WebUI で手動でバージョンを切り替えてください。
### 微調整
### 微調整
@ -202,25 +206,27 @@ python webui.py v1 <言語(オプション)>
5. ASR転写を校正する
5. ASR転写を校正する
6. 次のタブに移動し、モデルを微調整する
6. 次のタブに移動し、モデルを微調整する
### 推論WebUIを開く
### 推論 WebUI を開く
#### 統合パッケージ利用者
#### 統合パッケージ利用者
`go-webui-v2.bat` をダブルクリックするか、`go-webui-v2.ps1`を使用して、`1-GPT-SoVITS-TTS/1C-inference`で推論webuiを開きます。
`go-webui-v2.bat` をダブルクリックするか、`go-webui-v2.ps1`を使用して、`1-GPT-SoVITS-TTS/1C-inference`で推論 webui を開きます。
#### その他
#### その他
```bash
```bash
python GPT_SoVITS/inference_webui.py < 言語(オプション)>
python GPT_SoVITS/inference_webui.py < 言語(オプション)>
```
```
または
または
```bash
```bash
python webui.py
python webui.py
```
```
その後、`1-GPT-SoVITS-TTS/1C-inference`で推論webuiを開きます。
## V2リリースノ ート
その後、`1-GPT-SoVITS-TTS/1C-inference`で推論 webui を開きます。
## V2 リリースノート
新機能:
新機能:
@ -228,21 +234,21 @@ python webui.py
2. 最適化されたテキストフロントエンド
2. 最適化されたテキストフロントエンド
3. 事前学習済みモデルが2千時間から5千時間に拡張
3. 事前学習済みモデルが 2 千時間から 5 千時間に拡張
4. 低品質の参照音声に対する合成品質の向上
4. 低品質の参照音声に対する合成品質の向上
[詳細はこちら ]( https://github.com/RVC-Boss/GPT-SoVITS/wiki/GPT%E2%80%90SoVITS%E2%80%90v2%E2%80%90features-(%E6%96%B0%E7%89%B9%E6%80%A7))
[詳細はこちら ](< https://github.com/RVC-Boss/GPT-SoVITS/wiki/GPT%E2%80%90SoVITS%E2%80%90v2%E2%80%90features-(%E6%96%B0%E7%89%B9%E6%80%A7)> )
V1環境からV2を使用するには:
V1 環境から V2 を使用するには:
1. `pip install -r requirements.txt` を使用していくつかのパッケージを更新
1. `pip install -r requirements.txt` を使用していくつかのパッケージを更新
2. 最新のコードをgithubからクローン
2. 最新のコードを github からクローン
3. [huggingface ](https://huggingface.co/lj1995/GPT-SoVITS/tree/main/gsv-v2final-pretrained )からV2の事前学習モデルをダウンロードし、それらを`GPT_SoVITS\pretrained_models\gsv-v2final-pretrained`に配置
3. [huggingface ](https://huggingface.co/lj1995/GPT-SoVITS/tree/main/gsv-v2final-pretrained )から V2 の事前学習モデルをダウンロードし、それらを`GPT_SoVITS\pretrained_models\gsv-v2final-pretrained`に配置
中国語V2追加: [G2PWModel_1.1.zip ](https://paddlespeech.cdn.bcebos.com/Parakeet/released_models/g2p/G2PWModel_1.1.zip )( G2PWモデルをダウンロードし、解凍して`G2PWModel`にリネームし、`GPT_SoVITS/text`に配置します)
中国語 V2 追加: [G2PWModel_1.1.zip ](https://paddlespeech.cdn.bcebos.com/Parakeet/released_models/g2p/G2PWModel_1.1.zip )( G2PW モデルをダウンロードし、解凍して`G2PWModel`にリネームし、`GPT_SoVITS/text`に配置します)
## V3 リリースノート
## V3 リリースノート
@ -250,17 +256,17 @@ V1環境からV2を使用するには:
1. 音色の類似性が向上し、ターゲットスピーカーを近似するために必要な学習データが少なくなりました(音色の類似性は、ファインチューニングなしでベースモデルを直接使用することで顕著に改善されます)。
1. 音色の類似性が向上し、ターゲットスピーカーを近似するために必要な学習データが少なくなりました(音色の類似性は、ファインチューニングなしでベースモデルを直接使用することで顕著に改善されます)。
2. GPTモデルがより安定し、繰り返しや省略が減少し、より豊かな感情表現を持つ音声の生成が容易になりました。
2. GPT モデルがより安定し、繰り返しや省略が減少し、より豊かな感情表現を持つ音声の生成が容易になりました。
[詳細情報はこちら ]( https://github.com/RVC-Boss/GPT-SoVITS/wiki/GPT%E2%80%90SoVITS%E2%80%90v3%E2%80%90features-(%E6%96%B0%E7%89%B9%E6%80%A7))
[詳細情報はこちら ](< https://github.com/RVC-Boss/GPT-SoVITS/wiki/GPT%E2%80%90SoVITS%E2%80%90v3%E2%80%90features-(%E6%96%B0%E7%89%B9%E6%80%A7)> )
v2 環境から v3 を使用する方法:
v2 環境から v3 を使用する方法:
1. `pip install -r requirements.txt` を実行して、いくつかのパッケージを更新します。
1. `pip install -r requirements.txt` を実行して、いくつかのパッケージを更新します。
2. GitHubから最新のコードをクローンします。
2. GitHub から最新のコードをクローンします。
3. v3の事前学習済みモデル( s1v3.ckpt、s2Gv3.pth、models--nvidia--bigvgan_v2_24khz_100band_256x フォルダ)を[Huggingface](https://huggingface.co/lj1995/GPT-SoVITS/tree/main) からダウンロードし、GPT_SoVITS\pretrained_models フォルダに配置します。
3. v3 の事前学習済みモデル( s1v3.ckpt、s2Gv3.pth、models--nvidia--bigvgan_v2_24khz_100band_256x フォルダ)を[Huggingface](https://huggingface.co/lj1995/GPT-SoVITS/tree/main) からダウンロードし、GPT_SoVITS\pretrained_models フォルダに配置します。
追加: 音声超解像モデルについては、[ダウンロード方法](../../tools/AP_BWE_main/24kto48k/readme.txt)を参照してください。
追加: 音声超解像モデルについては、[ダウンロード方法](../../tools/AP_BWE_main/24kto48k/readme.txt)を参照してください。
@ -285,15 +291,20 @@ v2 環境から v3 を使用する方法:
- [ ] モデルミックス
- [ ] モデルミックス
## (追加の) コマンドラインから実行する方法
## (追加の) コマンドラインから実行する方法
コマンド ラインを使用して UVR5 の WebUI を開きます
コマンド ラインを使用して UVR5 の WebUI を開きます
```
```
python tools/uvr5/webui.py "< infer_device > " < is_half > < webui_port_uvr5 >
python tools/uvr5/webui.py "< infer_device > " < is_half > < webui_port_uvr5 >
```
```
<!-- ブラウザを開けない場合は、以下の形式に従って UVR 処理を行ってください。これはオーディオ処理に mdxnet を使用しています。
<!-- ブラウザを開けない場合は、以下の形式に従って UVR 処理を行ってください。これはオーディオ処理に mdxnet を使用しています。
```
```
python mdxnet.py --model --input_root --output_vocal --output_ins --agg_level --format --device --is_half_precision
python mdxnet.py --model --input_root --output_vocal --output_ins --agg_level --format --device --is_half_precision
``` -->
``` -->
コマンド ラインを使用してデータセットのオーディオ セグメンテーションを行う方法は次のとおりです。
コマンド ラインを使用してデータセットのオーディオ セグメンテーションを行う方法は次のとおりです。
```
```
python audio_slicer.py \
python audio_slicer.py \
--input_path "< path_to_original_audio_file_or_directory > " \
--input_path "< path_to_original_audio_file_or_directory > " \
@ -303,16 +314,21 @@ python audio_slicer.py \
--min_interval < shortest_time_gap_between_adjacent_subclips >
--min_interval < shortest_time_gap_between_adjacent_subclips >
--hop_size < step_size_for_computing_volume_curve >
--hop_size < step_size_for_computing_volume_curve >
```
```
コマンドラインを使用してデータセット ASR 処理を行う方法です (中国語のみ)
コマンドラインを使用してデータセット ASR 処理を行う方法です (中国語のみ)
```
```
python tools/asr/funasr_asr.py -i < input > -o < output >
python tools/asr/funasr_asr.py -i < input > -o < output >
```
```
ASR処理はFaster_Whisperを通じて実行されます(中国語を除くASRマーキング)
ASR 処理は Faster_Whisper を通じて実行されます(中国語を除く ASR マーキング)
(進行状況バーは表示されません。GPU のパフォーマンスにより時間遅延が発生する可能性があります)
(進行状況バーは表示されません。GPU のパフォーマンスにより時間遅延が発生する可能性があります)
```
```
python ./tools/asr/fasterwhisper_asr.py -i < input > -o < output > -l < language > -p < precision >
python ./tools/asr/fasterwhisper_asr.py -i < input > -o < output > -l < language > -p < precision >
```
```
カスタムリストの保存パスが有効になっています
カスタムリストの保存パスが有効になっています
## クレジット
## クレジット
@ -320,6 +336,7 @@ python ./tools/asr/fasterwhisper_asr.py -i <input> -o <output> -l <language> -p
特に以下のプロジェクトと貢献者に感謝します:
特に以下のプロジェクトと貢献者に感謝します:
### 理論研究
### 理論研究
- [ar-vits ](https://github.com/innnky/ar-vits )
- [ar-vits ](https://github.com/innnky/ar-vits )
- [SoundStorm ](https://github.com/yangdongchao/SoundStorm/tree/master/soundstorm/s1/AR )
- [SoundStorm ](https://github.com/yangdongchao/SoundStorm/tree/master/soundstorm/s1/AR )
- [vits ](https://github.com/jaywalnut310/vits )
- [vits ](https://github.com/jaywalnut310/vits )
@ -329,17 +346,23 @@ python ./tools/asr/fasterwhisper_asr.py -i <input> -o <output> -l <language> -p
- [fish-speech ](https://github.com/fishaudio/fish-speech/blob/main/tools/llama/generate.py#L41 )
- [fish-speech ](https://github.com/fishaudio/fish-speech/blob/main/tools/llama/generate.py#L41 )
- [f5-TTS ](https://github.com/SWivid/F5-TTS/blob/main/src/f5_tts/model/backbones/dit.py )
- [f5-TTS ](https://github.com/SWivid/F5-TTS/blob/main/src/f5_tts/model/backbones/dit.py )
- [shortcut flow matching ](https://github.com/kvfrans/shortcut-models/blob/main/targets_shortcut.py )
- [shortcut flow matching ](https://github.com/kvfrans/shortcut-models/blob/main/targets_shortcut.py )
### 事前学習モデル
### 事前学習モデル
- [Chinese Speech Pretrain ](https://github.com/TencentGameMate/chinese_speech_pretrain )
- [Chinese Speech Pretrain ](https://github.com/TencentGameMate/chinese_speech_pretrain )
- [Chinese-Roberta-WWM-Ext-Large ](https://huggingface.co/hfl/chinese-roberta-wwm-ext-large )
- [Chinese-Roberta-WWM-Ext-Large ](https://huggingface.co/hfl/chinese-roberta-wwm-ext-large )
- [BigVGAN ](https://github.com/NVIDIA/BigVGAN )
- [BigVGAN ](https://github.com/NVIDIA/BigVGAN )
### 推論用テキストフロントエンド
### 推論用テキストフロントエンド
- [paddlespeech zh_normalization ](https://github.com/PaddlePaddle/PaddleSpeech/tree/develop/paddlespeech/t2s/frontend/zh_normalization )
- [paddlespeech zh_normalization ](https://github.com/PaddlePaddle/PaddleSpeech/tree/develop/paddlespeech/t2s/frontend/zh_normalization )
- [split-lang ](https://github.com/DoodleBears/split-lang )
- [split-lang ](https://github.com/DoodleBears/split-lang )
- [g2pW ](https://github.com/GitYCC/g2pW )
- [g2pW ](https://github.com/GitYCC/g2pW )
- [pypinyin-g2pW ](https://github.com/mozillazg/pypinyin-g2pW )
- [pypinyin-g2pW ](https://github.com/mozillazg/pypinyin-g2pW )
- [paddlespeech g2pw ](https://github.com/PaddlePaddle/PaddleSpeech/tree/develop/paddlespeech/t2s/frontend/g2pw )
- [paddlespeech g2pw ](https://github.com/PaddlePaddle/PaddleSpeech/tree/develop/paddlespeech/t2s/frontend/g2pw )
### WebUI ツール
### WebUI ツール
- [ultimatevocalremovergui ](https://github.com/Anjok07/ultimatevocalremovergui )
- [ultimatevocalremovergui ](https://github.com/Anjok07/ultimatevocalremovergui )
- [audio-slicer ](https://github.com/openvpi/audio-slicer )
- [audio-slicer ](https://github.com/openvpi/audio-slicer )
- [SubFix ](https://github.com/cronrpc/SubFix )
- [SubFix ](https://github.com/cronrpc/SubFix )