一、模型介绍

image.png

现有的自回归大规模文本转语音(TTS)模型在语音自然性方面具有优势,但其逐个标记的生成机制使得合成语音的持续时间难以精确控制。这在需要严格视听同步的应用(例如视频配音)中成为一个重大限制。

基于此,哔哩哔哩(B站)Index团队近日开源了一款情感可控、时长可调的工业级自回归零样本文本转语音(TTS)系统—— IndexTTS2,该方法提出了一种新颖、通用、自回归的语音时长控制模型友好方法。它在情感表达语音时长控制方面取得了关键性突破,是零样本TTS技术迈向实用化阶段的重要里程碑

该方法支持两种生成模式:一种明确指定生成的标记数量以精确控制语音持续时间;另一种以自回归的方式自由生成语音,无需指定标记的数量,同时忠实地再现输入提示的韵律特征。

此外,IndexTTS2 实现了情感表达和说话者身份之间的解开,实现了对音色和情感的独立控制。在零样本设置中,模型可以准确地重建目标音色(来自音色提示),同时完美再现指定的情感音调。

为了提高高度情感表达中的语音清晰度,团队结合了 GPT 潜在表示,并设计了一种新颖的三阶段训练范式,以提高生成语音的稳定性。

二、模型部署步骤

快速部署及使用方法,请通过文末卡片进入算家云,参考“镜像社区”。

部署环境

ubuntu 22.04
cuda 12.4.1
NVIDIA Corporation RTX 4090

1.更新基础的软件包

查看系统版本信息

#查看系统的版本信息,包括ID(如ubuntu、centos等)、版本号、名称、版本号ID等
cat /etc/os-release

image.png

配置国内源

image.png

apt 配置阿里源

image.png

将以下内容粘贴进文件中

deb http://mirrors.aliyun.com/debian/ bullseye main non-free contrib
deb-src http://mirrors.aliyun.com/debian/ bullseye main non-free contrib
deb http://mirrors.aliyun.com/debian-security/ bullseye-security main
deb-src http://mirrors.aliyun.com/debian-security/ bullseye-security main
deb http://mirrors.aliyun.com/debian/ bullseye-updates main non-free contrib
deb-src http://mirrors.aliyun.com/debian/ bullseye-updates main non-free contrib
deb http://mirrors.aliyun.com/debian/ bullseye-backports main non-free contrib
deb-src http://mirrors.aliyun.com/debian/ bullseye-backports main non-free contrib

2.具体部署流程

在当前用户帐户上启用 Git-LFS 插件

git lfs install

image.png

下载并进入存储库

git clone https://github.com/index-tts/index-tts.git && cd index-tts
git lfs pull  # download large repository files

image.png

image.png

安装uv管理包,下载过慢可使用清华镜像源

pip install -U uv -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple/

image.png

3.基础环境配置

安装所需要的其他依赖项

uv sync --all-extras --default-index "https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple"

image.png

安装modelscope来下载模型

pip install modelscope -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple/

image.png

4.下载所需要的模型文件

modelscope download --model IndexTeam/IndexTTS-2 --local_dir checkpoints

image.png

除了以上模型外,一些小型模型也会自动 在项目首次运行时下载。如果您的网络环境 对 HuggingFace 的访问速度慢,建议执行以下作 命令:

除了以上模型外,项目初次运行时还会自动下载一些小模型,如果您的网络环境访问 HuggingFace 的速度较慢,推荐执行:

export HF_ENDPOINT="https://hf-mirror.com"

我所使用的webui.py 来自于 https://github.com/xldistance/index-tts-2.0-perfect-webui.git

可以 这样使用

git clone https://github.com/xldistance/index-tts-2.0-perfect-webui.git
ln -s index-tts-2.0-perfect-webui/webui.py webui.py
ln -s index-tts-2.0-perfect-webui/saved_timbres saved_timbres

uv 需要从 PyPI 或镜像源下载 cn2an 包,如果网络不稳定、速度慢或无法访问源,会导致下载卡住。

我们可以选择国内镜像加速下载

5.启动模型

uv run --index-url https://pypi.tuna.tsinghua.edu.cn/simple webui.py

在首次运行时会下载一些模型文件,启动完成后会如下显示

image.png

之后可以通过开放端口进行访问

image.png

image.png

关于我们(算力租赁 | AI大模型 | AI解决方案)

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐