Coqui TTS
🐸(青蛙)TTS
https://github.com/coqui-ai/TTS
Tacotron2
学习Pytorch关于语音合成的模块Tacotron2: https://pytorch.org/audio/stable/tutorials/tacotron2_pipeline_tutorial.html
We need to fix network issue:
/home/hgneng/miniconda3/envs/tacotron2/lib/python3.10/site-packages/torch/hub.py download_url_to_file from https://public-asai-dl-models.s3.eu-central-1.amazonaws.com/DeepPhonemizer/en_us_cmudict_forward.pt to /home/hgneng/.cache/torch/hub/checkpoints/en_us_cmudict_forward.pt
Tacotron2 data Modal
理解其模型,看有没有中文可用的,如果没有想办法自己训练:https://pytorch.org/audio/stable/pipelines.html
DeepPhonemizer
DeepPhonemizer is a multilingual grapheme-to-phoneme modeling library that leverages recent deep learning technology and is optimized for usage in production systems such as TTS. In particular, the library should be accurate, fast, easy to use. Moreover, you can train a custom model on your own dataset in a few lines of code.
DeepPhonemizer is compatible with Python 3.6+ and is distributed under the MIT license.
Read the documentation at: https://as-ideas.github.io/DeepPhonemizer/
Librosa
audio and music processing in Python
评论8
关于这个TTS
我已经在debian上安装了这个TTS 请问如何调用,谢谢
这个TTS是小草莓告诉我的,我只是收藏一下…
关于这个TTS
有没有可能基于这个TTS开发一个orca可以调用的版本呢
先解决青蛙TTS怎么支持中文,后续再考虑支持Orca…
关于这个TTS
这个还不支持中文吗,有没有可能让他支持中文呢
还不支持。让它支持中文的难度不确定。还没有时间研究…
还不支持。让它支持中文的难度不确定。还没有时间研究。我估计需要有一个中文深度学习用的语料库,然后进行训练,创建中文模型才能支持。就我个人目前能力来看,还是太困难了。
这个TTS我知道但没用过,可能只是一个框架?
除了这个还有MaryTTS,以我的理解,这些是不是一个训练用的框架,要另外获取训练好的语音?
我的理解是,对于英文,已经有训练好的数据模型…
我的理解是,对于英文,已经有训练好的数据模型,只要录制少量语音,模型就能提取特征值合成出和录音人非常相似的声音效果。对于中文,模型应该还不存在。要做出模型应该是需要深度学习训练出来的。