一、安装
conda create -n GPTSoVits python=3.9
To activate this environment, use
$ conda activate GPTSoVits
To deactivate an active environment, use
$ conda deactivate
二、激活环境
conda activate GPTSoVits
三、补充安装依赖
bash install.sh
四、退出
conda deactivate
五、AutoDL镜像项目启动方法
开启WebUI
echo {}> ~/GPT-SoVITS/i18n/locale/en_US.json && source activate GPTSoVits && cd ~/GPT-SoVITS/ && python webui.py zh_CN
作者:RVC-Boss
链接:https://www.codewithgpu.com/i/RVC-Boss/GPT-SoVITS/GPT-SoVITS-Official
来源:CodeWithGpu
如果把目录移动到了数据盘
echo {}> ~/autodl-tmp/GPT-SoVITS/i18n/locale/en_US.json && source activate GPTSoVits && cd ~/autodl-tmp/GPT-SoVITS/ && python webui.py zh_CN
辨别不同的端口
WebUI 端口 http://localhost:9874/
UVR5 端口 http://localhost:9873/
数据达标 端口 http://localhost:9871/
TTS推理 端口 http://localhost:9872/
这些端口你要主动启动了才会有
UVR5 需要的模型
UVR5 所用到的模型放置路径
GPT-SoVITS/tools/uvr5/uvr5_weights
UVR5 可能用得到的模型
model_bs_roformer_ep_317_sdr_12.9755
数据准备
音频数据清洗和音频切割、音频数据打标是关键
其中音频数据打标最为致命,非常花时间,我一般直接跳过。。。。。。
在打标之前先用UVR5进行音频伴奏分离、混响分离,提取出稍微干净一些的人声
然后就是音频切割,如果是4090,建议每一份切割后的音频都在24秒以下,20秒左右
于是我自个儿尝试了以下调整,不一定对啊,参考啊
threshold 不懂 不动
min_length 应该是多长的话语切割一次,不满这个时长则继续等到不少于这个时长为止 单位是毫秒
4090只有24GB显存 我把这个参数调成了 20000 即 20秒
min_interval 应该是说话停顿,说话没有到达停顿 就不要切割
我设置成了 100 , 我怕录音中说话比较密,等讲话者换气的时候 100毫秒是足够了
max_sil_kept 看起来就是静音时间 我从默认的500 改成了100
TTS推理
推理主要是把原先的数据集放回去参考
可能还有更好的方法,但是这个方法是真的简单方便
版权归原作者 CCSBRIDGE 所有, 如有侵权,请联系我们删除。