В современную эпоху быстрого технологического развития технология синтеза речи искусственного интеллекта постепенно меняет нашу жизнь. Сегодня я представлю вам отличный инструмент синтеза речи — CosyVoice.
git clone --recursive https://github.com/FunAudioLLM/CosyVoice.git
。Если клонирование подмодуля не удалось,Можетбегать Заказcd CosyVoice; git submodule update --init --recursive
。conda create -n cosyvoice python=3.8
。conda activate cosyvoice
。conda install -y -c conda-forge pynini==2.1.5
。pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/ --trusted-host=mirrors.aliyun.com
。sudo apt-get install sox libsox-dev
。sudo yum install sox sox-devel
。Настоятельно рекомендуется скачать предварительно обученныйCosyVoice - 300M
、CosyVoice - 300M - SFT
、CosyVoice - 300M - Instruct
МодельиCosyVoice - ttsfrd
ресурс。
Загрузка модели SDK:
from modelscope import snapshot_download
snapshot_download('iic/CosyVoice - 300M', local_dir='pretrained_models/CosyVoice - 300M')
snapshot_download('iic/CosyVoice - 300M - SFT', local_dir='pretrained_models/CosyVoice - 300M - SFT')
snapshot_download('iic/CosyVoice - 300M - Instruct', local_dir='pretrained_models/CosyVoice - 300M - Instruct')
snapshot_download('iic/CosyVoice - ttsfrd', local_dir='pretrained_models/CosyVoice - ttsfrd')
скачать модель git(Убедитесь, что у вас есть Установить git lfs):
mkdir -p pretrained_models
git clone https://www.modelscope.cn/iic/CosyVoice - 300M.git pretrained_models/CosyVoice - 300M
git clone https://www.modelscope.cn/iic/CosyVoice - 300M - SFT.git pretrained_models/CosyVoice - 300M - SFT
git clone https://www.modelscope.cn/iic/CosyVoice - 300M - Instruct.git pretrained_models/CosyVoice - 300M - Instruct
git clone https://www.modelscope.cn/iic/CosyVoice - ttsfrd.git pretrained_models/CosyVoice - ttsfrd
Дополнительные шаги:Разархивироватьttsfrd
ресурси Установитьttsfrd
пакет для повышения производительности нормализации текста,Но это не обязательно. Если не Установить,будет использоваться по умолчаниюWeTextProcessing
。
cd pretrained_models/CosyVoice - ttsfrd/
unzip resource.zip -d.
pip install ttsfrd - 0.3.6 - cp38 - cp38 - linux_x86_64.whl
Выбирайте разные модели для разных нужд рассуждения:
CosyVoice - 300M
Модель。CosyVoice - 300M - SFT
Модель。CosyVoice - 300M - Instruct
Модель。первый,Воляthird_party/Matcha - TTS
добавить вPYTHONPATH
。
export PYTHONPATH=third_party/Matcha - TTS
Пример кода:
from cosyvoice.cli.cosyvoice import CosyVoice
from cosyvoice.utils.file_utils import load_wav
import torchaudio
cosyvoice = CosyVoice('pretrained_models/CosyVoice - 300M - SFT')
# sft usage
print(cosyvoice.list_avaliable_spks())
# change stream=True for chunk stream inference
for i, j in enumerate(cosyvoice.inference_sft('Здравствуйте, я модель общего генеративного голоса, чем я могу вам помочь?', «Китаянка», stream=False)):
torchaudio.save('sft_{}.wav'.format(i), j['tts_speech'], 22050)
cosyvoice = CosyVoice('pretrained_models/CosyVoice - 300M')
# zero_shot usage, <|zh|><|en|><|jp|><|yue|><|ko|> for Chinese/English/Japanese/Cantonese/Korean
prompt_speech_16k = load_wav('zero_shot_prompt.wav', 16000)
for i, j in enumerate(cosyvoice.inference_zero_shot('Я получил подарок на день рождения от друга издалека. Неожиданный сюрприз и глубокое благословение наполнили мое сердце сладкой радостью, и моя улыбка расцвела, как цветок.', «Надеюсь, в будущем ты сможешь добиться большего, чем я. ', prompt_speech_16k, stream=False)):
torchaudio.save('zero_shot_{}.wav'.format(i), j['tts_speech'], 22050)
# cross_lingual usage
prompt_speech_16k = load_wav('cross_lingual_prompt.wav', 16000)
for i, j in enumerate(cosyvoice.inference_cross_lingual('<|en|>And then later on, fully acquiring that company. So keeping management in line, interest in line with the asset that\'s coming into the family is a reason why sometimes we don\'t buy the whole thing.', prompt_speech_16k, stream=False)):
torchaudio.save('cross_lingual_{}.wav'.format(i), j['tts_speech'], 22050)
cosyvoice = CosyVoice('pretrained_models/CosyVoice - 300M - Instruct')
# instruct usage, support <laughter></laughter><strong></strong>[laughter][breath]
for i, j in enumerate(cosyvoice.inference_instruct('При возникновении проблем,Он проявил необыкновенное<strong>храбрость</strong>и<strong>мудрость</strong>。', «Китаец», 'Theo \'Crimson\', is a fiery, passionate rebel leader. Fights with fervor for justice, but struggles with impulsiveness.', stream=False)):
torchaudio.save('instruct_{}.wav'.format(i), j['tts_speech'], 22050)
Можно использовать Web Быстро ознакомьтесь с демо-страницей CosyVoice, поддержка sft/zero-shot/межъязыковое рассуждение/инструкции. Пожалуйста, обратитесь к демонстрационному веб-сайту для получения более подробной информации.
Пример Заказ:python3 webui.py --port 50000 --model_dir pretrained_models/CosyVoice - 300M
(Можно изменить по мере необходимости Модель)。
Для продвинутых пользователей,examples/libritts/cosyvoice/run.sh
Обучение проводится висценарий вывода,Вы можете следовать этому примеру, чтобы познакомиться с CosyVoice.
Если вы хотите использовать grpc для развертывания службы, вы можете выполнить следующие шаги, в противном случае вы можете проигнорировать этот шаг.
Создайте образ докера:
cd runtime/python
docker build -t cosyvoice:v1.0.
Запустите докер-контейнер (при необходимости выберите режим вывода):
использование grpc:
docker run -d --runtime=nvidia -p 50000:50000 cosyvoice:v1.0 /bin/bash -c "cd /opt/CosyVoice/CosyVoice/runtime/python/grpc && python3 server.py --port 50000 --max_conc 4 --model_dir iic/CosyVoice - 300M && sleep infinity"
cd grpc && python3 client.py --port 50000 --mode <sft|zero_shot|cross_lingual|instruct>
использование фастапи:
docker run -d --runtime=nvidia -p 50000:50000 cosyvoice:v1.0 /bin/bash -c "cd /opt/CosyVoice/CosyVoice/runtime/python/fastapi && python3 server.py --port 50000 --model_dir iic/CosyVoice - 300M && sleep infinity"
cd fastapi && python3 client.py --port 50000 --mode <sft|zero_shot|cross_lingual|instruct>
CosyVoice предлагает нам новый опыт синтеза речи благодаря своим мощным функциям и гибкому использованию. Приходите и попробуйте!