MOSS‑TTS 家族是由 MOSI.AI 与 OpenMOSS 团队 推出的开源 语音与声音生成模型家族。该系列面向 高保真、高表现力 与 复杂真实场景 设计,覆盖稳定长文本语音、多说话人对话、音色/角色设计、环境音效以及实时流式 TTS 等能力。
- 2026.4.13:🚀 ~100M 参数量的 MOSS-TTS-Nano 已发布!支持多语种 voice clone、48 kHz 立体声输入输出,并且仅需 4 核 CPU 即可实现流式输出。详情可查看 GitHub 仓库 和我们的 blog。
- 2026.3.31: 📄 MOSS-TTSD 和 MOSS-VoiceGenerator 的技术报告现已在arXiv上发布!
- 2026.3.26: 📘 新增 MOSS-TTS-Realtime 微调教程!
- 2026.3.20: 📄 我们的技术报告现已在arXiv上发布!
- 2026.3.18:🚀 在配套仓库
OpenMOSS/llama.cpp中新增了 first-class MOSS-TTSllama.cpp实现,提供 GGUF backbone 推理与 ONNX 音频编解码器解码的端到端可运行链路。可从 first-class e2e 指南 开始。 - 2026.3.16:📘 新增 MossTTSLocal 架构微调教程,适用于 MOSS-TTS-Local-Transformer!
- 2026.3.12:🚀 新增面向
MossTTSDelay架构的 SGLang 后端支持,可用于 MOSS-TTS(Delay)和 MOSS-SoundEffect 的高效推理,生成吞吐可提升约 3 倍! - 2026.3.11:📘 新增 MossTTSDelay 架构微调教程,适用于 MOSS-TTS(Delay)、MOSS-TTSD、MOSS-VoiceGenerator 和 MOSS-SoundEffect!
- 2026.3.10:⚡️ 大幅优化了 llama.cpp 推理管线的显存占用。现在 8B 模型可以运行在 8GB 显存的 GPU 上!
- 2026.3.4:新增 无 PyTorch 推理 支持 — 通过 llama.cpp + ONNX Runtime 实现端侧轻量部署。量化 GGUF 权重发布于
OpenMOSS-Team/MOSS-TTS-GGUF,ONNX 音频编解码器发布于OpenMOSS-Team/MOSS-Audio-Tokenizer-ONNX。详见 llama.cpp 后端。 - 2026.3.4:🎉 我们在 🦞 龙虾 的 ClawHub 平台上架了 MOSS-TTS skills:feishu-voice-tts 与 moss-tts-voice。
- 2026.2.10:🎉🎉🎉 我们已发布 MOSS-TTS Family。更多详情请查看我们的 Blog!我们的 Huggingface Space 在这里:MOSS-TTS, MOSS-TTSD-v1.0, MOSS-VoiceGenerator.
tts_promotional_video.mp4
当一段音频需要 听起来像真实的人类、准确发音、在不同内容间切换说话风格、稳定持续数十分钟,并且 支持对话、角色扮演与实时交互 时,单一 TTS 模型往往不足以胜任。MOSS‑TTS 家族将工作流拆分为 5 个可独立使用、亦可组合成完整管线的量产级模型。
- MOSS‑TTS:MOSS‑TTS 是家族中的旗舰量产级 TTS 基础模型,核心能力是高保真以及最优性能的零样本语音克隆,支持长文本长语音生成、拼音、音标与时长精细控制,以及多语种/中英混合合成。它可作为大规模旁白、配音和语音产品的核心底座。
- MOSS‑TTSD:MOSS‑TTSD 是对话语音生成模型,用于生成高表现力、多说话人、超长连续对话的音频。本次我们更新了全新的v1.0版本,相比于0.7版本,它在音色相似度,说话人切换准确率,词错误率等客观指标上取得了业界最优的性能,在竞技场主观评测中,也战胜了豆包、Gemini2.5-pro等顶尖闭源模型。详情请访问 MOSS-TTSD 仓库。
- MOSS‑VoiceGenerator:MOSS‑VoiceGenerator 是开源音色设计模型,可从文本风格指令直接生成多样的说话人音色或风格,无需参考音频。它统一音色设计、风格控制与内容合成,可独立创作,也可作为下游 TTS 的音色设计层。模型性能在竞技场评分上超过了其余等顶尖音色设计模型。
- MOSS‑TTS‑Realtime:MOSS‑TTS‑Realtime 是面向实时语音智能体的多轮上下文感知实时 TTS 模型。它结合多轮对话中的文本与历史语音信号进行低时延增量合成,使多轮回复保持连贯、自然且音色一致。非常适合搭配文本模型构建低时延语音智能体。MOSS‑TTS‑Realtime 的 TTFB(Time To First Byte)达到180ms,$T_{\text{LLM-first-sentence}} + T_{\text{MOSS-TTS-Realtime-TTFB}}$ 整体为377ms。
- MOSS‑SoundEffect:MOSS‑SoundEffect 是面向内容制作的音效生成模型,具备广泛类别覆盖与可控时长能力。它能根据文本指令生成自然环境、城市场景、生物、人类动作与类音乐片段等音频,适用于影视、游戏、交互体验和数据合成。
我们在统一训练/评测框架下将 MossTTSDelay 与 MossTTSLocal 作为互补基线:Delay 更强调长上下文稳定性、推理速度与工程可用性,Local 更强调轻量灵活和面向流式场景的客观指标表现。二者共同提供可复现、可对比的落地与研究参考。
MossTTSRealtime 不是第三个对比基线,而是面向语音智能体的能力型设计。它同时利用历史文本与用户语音声学信息建模多轮上下文,以低时延流式合成保持回复连贯和音色一致。
| 架构 | 核心机制 | 架构细节 |
|---|---|---|
MossTTSDelay |
多头并行 RVQ 预测,结合延迟模式调度 | |
MossTTSLocal |
基于深度 Transformer 的时间同步 RVQ 模块 | |
MossTTSRealtime |
用于实时合成的分层文本-音频输入 |
MOSS-TTS、MOSS-TTSD 和 MOSS-TTS-Realtime 目前支持 20 种语言:
| Language | Code | Flag | Language | Code | Flag | Language | Code | Flag |
|---|---|---|---|---|---|---|---|---|
| 中文 | zh | 🇨🇳 | 英语 | en | 🇺🇸 | 德语 | de | 🇩🇪 |
| 西班牙语 | es | 🇪🇸 | 法语 | fr | 🇫🇷 | 日语 | ja | 🇯🇵 |
| 意大利语 | it | 🇮🇹 | 匈牙利语 | hu | 🇭🇺 | 韩语 | ko | 🇰🇷 |
| 俄语 | ru | 🇷🇺 | 波斯语(法尔西语) | fa | 🇮🇷 | 阿拉伯语 | ar | 🇸🇦 |
| 波兰语 | pl | 🇵🇱 | 葡萄牙语 | pt | 🇵🇹 | 捷克语 | cs | 🇨🇿 |
| 丹麦语 | da | 🇩🇰 | 瑞典语 | sv | 🇸🇪 | |||
| 希腊语 | el | 🇬🇷 | 土耳其语 | tr | 🇹🇷 |
我们在🦞 龙虾 的 ClawHub 平台上架了 MOSS-TTS skills。API Key 可在 MOSI AI Studio 获取。
| Skill | 说明 | 安装命令 |
|---|---|---|
feishu-voice-tts |
在飞书发送语音消息 | clawhub install feishu-voice-tts |
moss-tts-voice |
调用 MOSS-TTS API 生成语音 | clawhub install moss-tts-voice |
建议使用干净的 Python 环境。
conda create -n moss-tts python=3.12 -y
conda activate moss-tts安装全部依赖:
git clone https://github.com/OpenMOSS/MOSS-TTS.git
cd MOSS-TTS
pip install --extra-index-url https://download.pytorch.org/whl/cu128 -e ".[torch-runtime]"# 请先安装 uv:https://docs.astral.sh/uv/getting-started/installation/
git clone https://github.com/OpenMOSS/MOSS-TTS.git
cd MOSS-TTS
uv venv --python 3.12 .venv
source .venv/bin/activate
uv pip install --torch-backend cu128 -e ".[torch-runtime]"如果你的硬件支持,可以安装 FlashAttention 2 以提升速度并降低显存占用。
如果你使用 Conda/pip:
pip install --extra-index-url https://download.pytorch.org/whl/cu128 -e ".[torch-runtime,flash-attn]"如果机器内存较小、CPU 核数较多,可以限制并行编译数:
MAX_JOBS=4 pip install --extra-index-url https://download.pytorch.org/whl/cu128 -e ".[torch-runtime,flash-attn]"如果你使用 uv:
uv pip install --torch-backend cu128 -e ".[torch-runtime,flash-attn]"如果机器内存较小、CPU 核心较多,可以限制并行编译数:
MAX_JOBS=4 uv pip install --torch-backend cu128 -e ".[torch-runtime,flash-attn]"说明:
- 依赖统一在
pyproject.toml中管理,当前固定了torch==2.9.1+cu128和torchaudio==2.9.1+cu128。 uv方案中使用--torch-backend cu128,由 uv 处理 PyTorch CUDA 轮子来源,同时其余依赖仍使用默认安全索引策略解析。- 如果需要其他后端,可将
cu128替换为目标后端(例如cpu、cu126)。 - 如果 FlashAttention 2 编译失败,可以跳过,直接使用默认 attention 后端。
- FlashAttention 2 仅支持部分 GPU,通常搭配
torch.float16或torch.bfloat16使用。
如果你更希望使用 Gradio 界面,我们为 4 个主模型提供了对应脚本:
| Model | Script |
|---|---|
| MOSS-TTS | clis/moss_tts_app.py |
| MOSS-TTSD | clis/moss_ttsd_app.py |
| MOSS-VoiceGenerator | clis/moss_voice_generator_app.py |
| MOSS-SoundEffect | clis/moss_sound_effect_app.py |
MOSS-TTS-Realtime 的 Gradio demo 请直接参考 MOSS-TTS-Realtime Model Card
from pathlib import Path
import importlib.util
import torch
import torchaudio
from transformers import AutoModel, AutoProcessor
# Disable the broken cuDNN SDPA backend
torch.backends.cuda.enable_cudnn_sdp(False)
# Keep these enabled as fallbacks
torch.backends.cuda.enable_flash_sdp(True)
torch.backends.cuda.enable_mem_efficient_sdp(True)
torch.backends.cuda.enable_math_sdp(True)
pretrained_model_name_or_path = "OpenMOSS-Team/MOSS-TTS"
device = "cuda" if torch.cuda.is_available() else "cpu"
dtype = torch.bfloat16 if device == "cuda" else torch.float32
def resolve_attn_implementation() -> str:
# Prefer FlashAttention 2 when package + device conditions are met.
if (
device == "cuda"
and importlib.util.find_spec("flash_attn") is not None
and dtype in {torch.float16, torch.bfloat16}
):
major, _ = torch.cuda.get_device_capability()
if major >= 8:
return "flash_attention_2"
# CUDA fallback: use PyTorch SDPA kernels.
if device == "cuda":
return "sdpa"
# CPU fallback.
return "eager"
attn_implementation = resolve_attn_implementation()
print(f"[INFO] Using attn_implementation={attn_implementation}")
processor = AutoProcessor.from_pretrained(
pretrained_model_name_or_path,
trust_remote_code=True,
)
processor.audio_tokenizer = processor.audio_tokenizer.to(device)
text_1 = "亲爱的你,\n你好呀。\n\n今天,我想用最认真、最温柔的声音,对你说一些重要的话。\n这些话,像一颗小小的星星,希望能在你的心里慢慢发光。\n\n首先,我想祝你——\n每天都能平平安安、快快乐乐。\n\n希望你早上醒来的时候,\n窗外有光,屋子里很安静,\n你的心是轻轻的,没有着急,也没有害怕。\n\n希望你吃饭的时候胃口很好,\n走路的时候脚步稳稳,\n晚上睡觉的时候,能做一个又一个甜甜的梦。\n\n我希望你能一直保持好奇心。\n对世界充满问题,\n对天空、星星、花草、书本和故事感兴趣。\n当你问“为什么”的时候,\n希望总有人愿意认真地听你说话。\n\n我也希望你学会温柔。\n温柔地对待朋友,\n温柔地对待小动物,\n也温柔地对待自己。\n\n如果有一天你犯了错,\n请不要太快责怪自己,\n因为每一个认真成长的人,\n都会在路上慢慢学会更好的方法。\n\n愿你拥有勇气。\n当你站在陌生的地方时,\n当你第一次举手发言时,\n当你遇到困难、感到害怕的时候,\n希望你能轻轻地告诉自己:\n“我可以试一试。”\n\n就算没有一次成功,也没有关系。\n失败不是坏事,\n它只是告诉你,你正在努力。\n\n我希望你学会分享快乐。\n把开心的事情告诉别人,\n把笑声送给身边的人,\n因为快乐被分享的时候,\n会变得更大、更亮。\n\n如果有一天你感到难过,\n我希望你知道——\n难过并不丢脸,\n哭泣也不是软弱。\n\n愿你能找到一个安全的地方,\n慢慢把心里的话说出来,\n然后再一次抬起头,看见希望。\n\n我还希望你能拥有梦想。\n这个梦想也许很大,\n也许很小,\n也许现在还说不清楚。\n\n没关系。\n梦想会和你一起长大,\n在时间里慢慢变得清楚。\n\n最后,我想送你一个最最重要的祝福:\n\n愿你被世界温柔对待,\n也愿你成为一个温柔的人。\n\n愿你的每一天,\n都值得被记住,\n都值得被珍惜。\n\n亲爱的你,\n请记住,\n你是独一无二的,\n你已经很棒了,\n而你的未来,\n一定会慢慢变得闪闪发光。\n\n祝你健康、勇敢、幸福,\n祝你永远带着笑容向前走。"
text_2 = "We stand on the threshold of the AI era.\nArtificial intelligence is no longer just a concept in laboratories, but is entering every industry, every creative endeavor, and every decision. It has learned to see, hear, speak, and think, and is beginning to become an extension of human capabilities. AI is not about replacing humans, but about amplifying human creativity, making knowledge more equitable, more efficient, and allowing imagination to reach further. A new era, jointly shaped by humans and intelligent systems, has arrived."
text_3 = "nin2 hao3,qing3 wen4 nin2 lai2 zi4 na3 zuo4 cheng2 shi4?"
text_4 = "nin2 hao3,qing4 wen3 nin2 lai2 zi4 na4 zuo3 cheng4 shi3?"
text_5 = "您好,请问您来自哪 zuo4 cheng2 shi4?"
text_6 = "/həloʊ, meɪ aɪ æsk wɪtʃ sɪti juː ɑːr frʌm?/"
# Use audio from ./assets/audio to avoid downloading from the cloud.
ref_audio_1 = "https://speech-demo.oss-cn-shanghai.aliyuncs.com/moss_tts_demo/tts_readme_demo/reference_zh.wav"
ref_audio_2 = "https://speech-demo.oss-cn-shanghai.aliyuncs.com/moss_tts_demo/tts_readme_demo/reference_en.m4a"
conversations = [
# Direct TTS (no reference)
[processor.build_user_message(text=text_1)],
[processor.build_user_message(text=text_2)],
# Pinyin or IPA input
[processor.build_user_message(text=text_3)],
[processor.build_user_message(text=text_4)],
[processor.build_user_message(text=text_5)],
[processor.build_user_message(text=text_6)],
# Voice cloning (with reference)
[processor.build_user_message(text=text_1, reference=[ref_audio_1])],
[processor.build_user_message(text=text_2, reference=[ref_audio_2])],
# Duration control
[processor.build_user_message(text=text_2, tokens=325)],
[processor.build_user_message(text=text_2, tokens=600)],
]
model = AutoModel.from_pretrained(
pretrained_model_name_or_path,
trust_remote_code=True,
attn_implementation=attn_implementation,
torch_dtype=dtype,
).to(device)
model.eval()
batch_size = 1
save_dir = Path("inference_root")
save_dir.mkdir(exist_ok=True, parents=True)
sample_idx = 0
with torch.no_grad():
for start in range(0, len(conversations), batch_size):
batch_conversations = conversations[start : start + batch_size]
batch = processor(batch_conversations, mode="generation")
input_ids = batch["input_ids"].to(device)
attention_mask = batch["attention_mask"].to(device)
outputs = model.generate(
input_ids=input_ids,
attention_mask=attention_mask,
max_new_tokens=4096,
)
for message in processor.decode(outputs):
audio = message.audio_codes_list[0]
out_path = save_dir / f"sample{sample_idx}.wav"
sample_idx += 1
torchaudio.save(out_path, audio.unsqueeze(0), processor.model_config.sampling_rate)各模型的完整使用方式请参考对应的 model card。
微调教程按架构分别组织。
当前已提供:
MossTTSDelay/OpenMOSS-Team/MOSS-TTS:见 moss_tts_delay/finetuning/README_zh.mdMossTTSLocal/OpenMOSS-Team/MOSS-TTS-Local-Transformer:见 moss_tts_local/finetuning/README_zh.mdMoss-TTS-Realtime/OpenMOSS-Team/MOSS-TTS-Realtime: 见 moss_tts_realtime/finetuning/README_zh.md
后续其余架构的微调教程也会分别补充到对应目录下。
MOSS-TTS 支持使用 llama.cpp 运行 Qwen3 backbone,配合 ONNX Runtime / TensorRT 运行音频编解码器,实现 完全无 PyTorch 依赖 的轻量端侧推理。
我们也在配套仓库 OpenMOSS/llama.cpp 中维护了一条更新的 first-class MOSS-TTS 链路。与下方介绍的 legacy bridge 后端不同,这条链路把多通道 embedding、多输出头和 delay-pattern decode 直接放进了 llama.cpp。
如需使用这条链路,请从 first-class e2e 指南 开始。
# 1. 安装(无 PyTorch)
pip install -e ".[llama-cpp-onnx]"
# 2. 下载预量化 backbone + embedding/lm_head 权重
huggingface-cli download OpenMOSS-Team/MOSS-TTS-GGUF --local-dir weights/MOSS-TTS-GGUF
# 3. 下载 ONNX 音频编解码器
huggingface-cli download OpenMOSS-Team/MOSS-Audio-Tokenizer-ONNX --local-dir weights/MOSS-Audio-Tokenizer-ONNX
# 4. 编译 C bridge(一次性,需要 llama.cpp 源码编译)
cd moss_tts_delay/llama_cpp && bash build_bridge.sh /path/to/llama.cpp && cd ../..
# 5. 推理
python -m moss_tts_delay.llama_cpp \
--config configs/llama_cpp/default.yaml \
--text "你好世界!" --output output.wav
# 6. (可选) 针对 8 GB 显存 GPU 的低显存模式 — 按阶段加载/卸载组件
python -m moss_tts_delay.llama_cpp \
--config configs/llama_cpp/trt-8gb.yaml \
--text "你好世界!" --output output.wav| 方案 | 安装命令 | 依赖 | 适用场景 |
|---|---|---|---|
| 无 Torch (ONNX) | pip install -e ".[llama-cpp-onnx]" |
numpy, onnxruntime-gpu, tokenizers | 推荐入门方案 |
| 无 Torch (TRT) | pip install -e ".[llama-cpp-trt]" |
numpy, tensorrt, cuda-python | 最高音频编解码器性能(需自行编译 engine) |
| Torch 加速 | pip install -e ".[llama-cpp-onnx,llama-cpp-torch]" |
+ torch | GPU 加速 LM heads(约 30 倍提速) |
想要自行转换权重? 请参阅 转换指南,了解如何使用 llama.cpp 提取、转换和量化 MOSS-TTS 权重。
| 仓库 | 内容 | 下载命令 |
|---|---|---|
OpenMOSS-Team/MOSS-TTS-GGUF |
Q4_K_M backbone .gguf、embeddings/(.npy)、lm_heads/(.npy)、tokenizer |
huggingface-cli download OpenMOSS-Team/MOSS-TTS-GGUF --local-dir weights/MOSS-TTS-GGUF |
OpenMOSS-Team/MOSS-Audio-Tokenizer-ONNX |
Encoder & decoder ONNX 模型 | huggingface-cli download OpenMOSS-Team/MOSS-Audio-Tokenizer-ONNX --local-dir weights/MOSS-Audio-Tokenizer-ONNX |
注意: 我们 不提供 预编译的 TensorRT engine,因为 TRT engine 与 GPU 架构和 TensorRT 版本强绑定。如需使用 TRT,请从 ONNX 模型自行编译 — 参考
moss_audio_tokenizer/trt/build_engine.sh。
configs/llama_cpp/ 中提供了四个预设配置:
default.yaml— ONNX 音频 Tokenizer + GGUF backbone(推荐入门)trt.yaml— TensorRT 音频 Tokenizer + GGUF backbone(最大吞吐,需自行编译 engine)trt-8gb.yaml— 针对 8 GB 显存 GPU 的低显存模式(分阶段加载,TRT 音频)cpu-only.yaml— 纯 CPU 运行(无需 GPU)
关键配置项:
heads_backend: auto | numpy | torch— LM heads 计算后端audio_backend: onnx | trt | torch— 音频编解码器后端low_memory: true | false— 针对有限显存的分阶段加载(按阶段加载/卸载 encoder, backbone, decoder)kv_cache_type_k / kv_cache_type_v— KV cache 量化(例如q8_0,q4_0)以减少显存占用flash_attn: auto | enabled | disabled— flash attention 用于降低 prefill 阶段的峰值显存
完整文档请查看 moss_tts_delay/llama_cpp/README.md。
MOSS-TTS(Delay)支持使用 OpenMOSS 深度扩展的 SGLang 运行融合后的 MOSS-TTS 与 MOSS-Audio-Tokenizer 模型,实现面向音频生成的 高效推理。
# 1. 克隆 SGLang 仓库
git clone https://github.com/OpenMOSS/sglang.git
# 2. 安装 SGLang
pip install -e ./sglang/python[all]
# 3. (可选) 解决 SGLang 的 CuDNN 兼容性报错
# RuntimeError: CRITICAL WARNING: PyTorch 2.9.1 & CuDNN Compatibility Issue Detected
pip install nvidia-cudnn-cu12==9.16.0.29
# 4. 下载模型与音频编解码器权重
huggingface-cli download OpenMOSS-Team/MOSS-TTS --local-dir weights/MOSS-TTS
huggingface-cli download OpenMOSS-Team/MOSS-Audio-Tokenizer --local-dir weights/MOSS-Audio-Tokenizer
# 5. 融合模型与音频编解码器权重
python scripts/fuse_moss_tts_delay_with_codec.py --model-path weights/MOSS-TTS --codec-model-path weights/MOSS-Audio-Tokenizer --save-path weights/MOSS-TTS-Delay-With-Codec
# 6. 启动服务
sglang serve --model-path weights/MOSS-TTS-Delay-With-Codec --delay-pattern --trust-remote-code如果融合输出目录已存在,可以在命令中追加
--overwrite直接覆盖,或在脚本提示后输入字符确认覆盖。
注意: 首次启动服务后的第一次请求会触发较长时间的编译,这不是故障,请耐心等待。
curl -X POST http://localhost:30000/generate \
-H "Content-Type: application/json" \
-d '{
"text": "新增 SGLang 后端支持,实现高效推理。",
"audio_data": "https://cdn.jsdelivr.net/gh/OpenMOSS/MOSS-TTSD@main/legacy/v0.7/examples/zh_spk1_moon.wav",
"sampling_params": {
"max_new_tokens": 512,
"temperature": 1.7,
"top_p": 0.8,
"top_k": 25
}
}'text表示待合成的文本内容;可在前缀加入${token:25}进行 token 控制,例如${token:25}你好 世界audio_data表示可选的参考音频;不传入时会生成随机音色的音频,也可以是<path-to-audio-file>或data:audio/wav;base64,{b64_audio},其中b64_audio为 wav 文件的 base64 字符串。
curl -X POST http://localhost:30000/generate \
-H "Content-Type: application/json" \
-d '{
"text": "${token:125}${ambient_sound:a sports car roaring past on the highway.}",
"sampling_params": {
"max_new_tokens": 512,
"temperature": 1.5,
"top_p": 0.6,
"top_k": 50
}
}'text中只能包含${token:125}和${ambient_sound:...}这两个字段,其中${ambient_sound:...}后填写音效的文字描述。- 对于 MOSS-SoundEffect,建议使用
${token:125},生成会更稳定。 - 不要传
audio_data,否则模型可能会 OOD。
{"text": "<wav-base64>", "...": "..."}HTTP 响应为 JSON 对象,可能包含多个字段;其中 .text 字段存放生成音频的 wav base64 字符串。通常只需提取该字段并做 base64 解码;例如将响应保存为 response.json 后,可执行 jq -r '.text' response.json | base64 -d -i > output.wav。
本节总结 MOSS‑TTS、MOSS‑TTSD 与 MOSS‑VoiceGenerator 的 家族级评测亮点。完整细节请参见各模型的 model card。
MOSS‑TTS 在开源零样本 TTS 基准 Seed‑TTS‑eval 上取得当前最佳结果,超越所有开源模型,并与主流闭源系统相当。
| Model | Params | Open‑source | EN WER (%) ↓ | EN SIM (%) ↑ | ZH CER (%) ↓ | ZH SIM (%) ↑ |
|---|---|---|---|---|---|---|
| DiTAR | 0.6B | ❌ | 1.69 | 73.5 | 1.02 | 75.3 |
| FishAudio‑S1 | 4B | ❌ | 1.72 | 62.57 | 1.22 | 72.1 |
| CosyVoice3 | 1.5B | ❌ | 2.22 | 72 | 1.12 | 78.1 |
| Seed‑TTS | ❌ | 2.25 | 76.2 | 1.12 | 79.6 | |
| MiniMax‑Speech | ❌ | 1.65 | 69.2 | 0.83 | 78.3 | |
| CosyVoice | 0.3B | ✅ | 4.29 | 60.9 | 3.63 | 72.3 |
| CosyVoice2 | 0.5B | ✅ | 3.09 | 65.9 | 1.38 | 75.7 |
| CosyVoice3 | 0.5B | ✅ | 2.02 | 71.8 | 1.16 | 78 |
| F5‑TTS | 0.3B | ✅ | 2 | 67 | 1.53 | 76 |
| SparkTTS | 0.5B | ✅ | 3.14 | 57.3 | 1.54 | 66 |
| FireRedTTS | 0.5B | ✅ | 3.82 | 46 | 1.51 | 63.5 |
| FireRedTTS‑2 | 1.5B | ✅ | 1.95 | 66.5 | 1.14 | 73.6 |
| Qwen2.5‑Omni | 7B | ✅ | 2.72 | 63.2 | 1.7 | 75.2 |
| FishAudio‑S1‑mini | 0.5B | ✅ | 1.94 | 55 | 1.18 | 68.5 |
| IndexTTS2 | 1.5B | ✅ | 2.23 | 70.6 | 1.03 | 76.5 |
| VibeVoice | 1.5B | ✅ | 3.04 | 68.9 | 1.16 | 74.4 |
| HiggsAudio‑v2 | 3B | ✅ | 2.44 | 67.7 | 1.5 | 74 |
| GLM-TTS | 1.5B | ✅ | 2.23 | 67.2 | 1.03 | 76.1 |
| GLM-TTS-RL | 1.5B | ✅ | 1.91 | 68.1 | 0.89 | 76.4 |
| VoxCPM | 0.5B | ✅ | 1.85 | 72.9 | 0.93 | 77.2 |
| Qwen3‑TTS | 0.6B | ✅ | 1.68 | 70.39 | 1.23 | 76.4 |
| Qwen3‑TTS | 1.7B | ✅ | 1.5 | 71.45 | 1.33 | 76.72 |
| MossTTSDelay | 8B | ✅ | 1.84 | 70.86 | 1.37 | 76.98 |
| MossTTSLocal | 1.7B | ✅ | 1.93 | 73.28 | 1.44 | 79.62 |
我们使用三个客观指标来评估 MOSS‑TTSD-v1.0 的性能:说话人归属准确性(ACC)、说话人相似度(SIM)和词错误率(WER)。我们对比了 MOSS‑TTSD-v1.0 与多个开源模型和闭源模型的性能,结果如下,MOSS-TTSD-v1.0 均取得了最优或次优性能。
| Model | ZH - SIM | ZH - ACC | ZH - WER | EN - SIM | EN - ACC | EN - WER |
|---|---|---|---|---|---|---|
| Comparison with Open-Source Models | ||||||
| MOSS-TTSD-v1.0 | 0.7949 | 0.9587 | 0.0485 | 0.7326 | 0.9626 | 0.0988 |
| MOSS-TTSD-v0.7 | 0.7423 | 0.9391 | 0.0517 | 0.6743 | 0.9266 | 0.1612 |
| Vibevoice 7B | 0.7590 | 0.9222 | 0.0570 | 0.7140 | 0.9554 | 0.0946 |
| Vibevoice 1.5 B | 0.7415 | 0.8798 | 0.0818 | 0.6961 | 0.9353 | 0.1133 |
| FireRedTTS2 | 0.7383 | 0.9022 | 0.0768 | - | - | - |
| Higgs Audio V2 | - | - | - | 0.6860 | 0.9025 | 0.2131 |
| Comparison with Proprietary Models | ||||||
| MOSS-TTSD-v1.0 (elevenlabs_voice) | 0.8165 | 0.9736 | 0.0391 | 0.7304 | 0.9565 | 0.1005 |
| Eleven V3 | 0.6970 | 0.9653 | 0.0363 | 0.6730 | 0.9498 | 0.0824 |
| MOSS-TTSD-v1.0 (gemini_voice) | - | - | - | 0.7893 | 0.9655 | 0.0984 |
| gemini-2.5-pro-preview-tts | - | - | - | 0.6786 | 0.9537 | 0.0859 |
| gemini-2.5-flash-preview-tts | - | - | - | 0.7194 | 0.9511 | 0.0871 |
| MOSS-TTSD-v1.0 (doubao_voice) | 0.8226 | 0.9630 | 0.0571 | - | - | - |
| Doubao_Podcast | 0.8034 | 0.9606 | 0.0472 | - | - | - |
对于开源模型,标注者会从说话人归属准确性、音色相似度、韵律与整体质量等维度对每个样本对进行评分。遵循 LMSYS Chatbot Arena 的方法,我们计算各维度的 Elo 评分与置信区间。

对于闭源模型,标注者只需在每个样本对中选择整体更偏好的一项,并据此计算胜率。

MOSS‑VoiceGenerator 在 整体偏好、指令遵循 与 自然度 上表现出强主观偏好。
我们评估了MOSS-TTS-Realtime的TTFB (Time To First Byte)和RTF(Real-Time Factor)。
注意:在测试期间启用了SDPA + torch.compile。以下结果在单个L20 GPU上进行了测试。
| Model | TTFB (ms) | RTF |
|---|---|---|
| MOSS-TTS-Realtime | 180(After warm up) | 0.51 |
We deployed Qwen3.5-9B using vLLM to measure
MOSS-TTS-Nano 是面向 CPU 优先、实时部署场景的轻量级 TTS 模型。它聚焦于真实产品落地里最关键的几个点:更小的模型体积、更低的流式生成时延,以及足以支撑本地 demo、Web 服务和轻量级生产集成的 voice clone 质量。基于纯自回归的 Audio Tokenizer + LLM 管线,MOSS-TTS-Nano 在保持部署栈简洁的同时,让无需 GPU 的实时语音生成真正具备可用性。
其主要特性包括:
- 0.1B 参数量:模型体积紧凑,显著降低了内存占用与部署成本,更适合本地部署和轻量级服务化场景。
- 仅需 4 核 CPU 即可实现实时生成:能够在纯 CPU 环境下高效完成流式语音生成,适合本地应用和成本敏感型部署场景。
- 支持多语种 voice clone:支持多语种语音克隆流程,可基于单条参考音频完成跨语言合成。
- 支持 48 kHz 立体声输入输出:原生支持高质量立体声音频,有助于同时提升参考音频保真度和最终听感。
如需了解更多环境配置、进阶用法和评测指标,请访问 MOSS-TTS-Nano 仓库。
MOSS-TTS-Nano 架构图
| Model | Hugging Face | ModelScope |
|---|---|---|
| MOSS-TTS-Nano |
MOSS-Audio-Tokenizer 是 MOSS‑TTS 家族的统一离散音频接口,基于 Cat(Causal Audio Tokenizer with Transformer)架构——一个 16 亿参数、完全由 Causal Transformer 块构建的“无 CNN”同构音频 tokenizer。
- 统一离散桥接:为 MOSS‑TTS、MOSS‑TTSD、MOSS‑VoiceGenerator、MOSS‑SoundEffect 与 MOSS‑TTS‑Realtime 提供共享骨干,使家族内音频表示一致。
- 极致压缩与高保真:将 24kHz 原始音频压缩到 12.5Hz 的极低帧率;采用 32 层残差向量量化(RVQ),支持从 0.125kbps 到 4kbps 的可变码率高保真重建。
- 超大规模通用音频训练:从零训练,使用 300 万小时多样化数据(语音、音效与音乐),在开源音频 tokenizer 中达到 SOTA 级重建效果。
- 原生流式设计:纯 Causal Transformer 架构专为可扩展性与低时延流式推理而设计,支持实时生产流程。
如需了解更多配置、进阶用法与评测指标,请访问 MOSS-Audio-Tokenizer 仓库。
| Model | Hugging Face | ModelScope |
|---|---|---|
| MOSS-Audio-Tokenizer |
我们在 LibriSpeech test-clean 子集上,对比 MOSS Audio Tokenizer 与多个开源音频 tokenizer 的 SIM、STOI、PESQ-NB、PESQ-WB 指标,并通过调节 RVQ 码本数量来控制码率。MOSS Audio Tokenizer 在 0–4 kbps 的比特率上的重建质量领先其他开源音频 tokenizer。
MOSS-TTS 社区正在快速发展,我们也很高兴展示一些由社区成员构建的优秀项目与功能:
- ComfyUI-MOSS-TTS:面向 ComfyUI 的 MOSS-TTS 扩展。
- MOSS-TTS-OpenAI:兼容 OpenAI 接口的 MOSS-TTS API。
- AnyPod:以 MOSS-TTS/MOSS-TTSD 作为后端的播客生成工具。
- 挪威语 LoRA for MOSS-TTS — 一个基于 NbAiLab/NST 挪威语语音数据集训练的社区 LoRA 适配器(
mlp,r=16)。由 Tosee 公司的 Martin Bergo 贡献。LoRA 权重:ToSee-Norway/MOSS-TTS-Norwegian-LoRA。训练脚本见community/norwegian-lora/。
MOSS-TTS 家族中的模型使用 Apache License 2.0 许可证。
@misc{gong2026mossttstechnicalreport,
title={MOSS-TTS Technical Report},
author={Yitian Gong and Botian Jiang and Yiwei Zhao and Yucheng Yuan and Kuangwei Chen and Yaozhou Jiang and Cheng Chang and Dong Hong and Mingshu Chen and Ruixiao Li and Yiyang Zhang and Yang Gao and Hanfu Chen and Ke Chen and Songlin Wang and Xiaogui Yang and Yuqian Zhang and Kexin Huang and ZhengYuan Lin and Kang Yu and Ziqi Chen and Jin Wang and Zhaoye Fei and Qinyuan Cheng and Shimin Li and Xipeng Qiu},
year={2026},
eprint={2603.18090},
archivePrefix={arXiv},
primaryClass={cs.SD},
url={https://arxiv.org/abs/2603.18090},
}
@misc{zhang2026mossttsdtextspokendialogue,
title={MOSS-TTSD: Text to Spoken Dialogue Generation},
author={Yuqian Zhang and Donghua Yu and Zhengyuan Lin and Botian Jiang and Mingshu Chen and Yaozhou Jiang and Yiwei Zhao and Yiyang Zhang and Yucheng Yuan and Hanfu Chen and Kexin Huang and Jun Zhan and Cheng Chang and Zhaoye Fei and Shimin Li and Xiaogui Yang and Qinyuan Cheng and Xipeng Qiu},
year={2026},
eprint={2603.19739},
archivePrefix={arXiv},
primaryClass={cs.SD},
url={https://arxiv.org/abs/2603.19739},
}
@misc{huang2026mossvoicegeneratorcreaterealisticvoices,
title={MOSS-VoiceGenerator: Create Realistic Voices with Natural Language Descriptions},
author={Kexin Huang and Liwei Fan and Botian Jiang and Yaozhou Jiang and Qian Tu and Jie Zhu and Yuqian Zhang and Yiwei Zhao and Chenchen Yang and Zhaoye Fei and Shimin Li and Xiaogui Yang and Qinyuan Cheng and Xipeng Qiu},
year={2026},
eprint={2603.28086},
archivePrefix={arXiv},
primaryClass={cs.SD},
url={https://arxiv.org/abs/2603.28086},
}





