最新Qwen3-TTS 从零到运行全流程教程(Windows + GPU 支持)

最新Qwen3-TTS 从零到运行全流程教程(Windows + GPU 支持)

2026-01-31
AI
type
Post
status
Published
date
Jan 31, 2026
slug
qwen3-tts
summary
本教程带你完整搭建 Qwen3-TTS 运行环境,从 Python 安装与虚拟环境配置,到 GPU 支持的 PyTorch 安装、flash-attn 优化,再到 模型下载与管理,最终实现本地模型快速启动与测试。教程内容清晰、按步骤操作,适合初学者快速上手 Qwen3-TTS 并进行语音生成实验。
tags
工具
AI
必看精选
category
AI
icon
password
💡
前言:为了方便,我这里使用的是最基础的模型。你可以根据需要使用Qwen3-TTS官方提供的其它几个模型。

1️⃣ 安装 Python 环境

在开始后续操作之前,我们需要先准备好 Python 运行环境
本教程将统一使用 Python 3.12.10,请务必按照说明安装对应版本,避免后续出现兼容性问题。

📥 下载 Python

  1. 打开 Python 官方下载页面:
  1. 在页面中找到并下载 Python 3.12.10 对应你系统的安装包
      • Windows:Windows installer (64-bit)
      • macOS:macOS installer
      • Linux:使用系统自带包管理器或源码安装(后文会单独说明)
💡 建议:尽量从 Python 官网下载,避免使用第三方来源,以防版本不一致或被篡改。
notion image

🛠️ 安装 Python

  1. 双击 打开刚刚下载好的 Python 安装程序
  1. 在安装界面 务必勾选 下面这个选项:
      • Add Python to PATH(添加到系统环境变量)
      ⚠️ 如果没有勾选该选项,后续在命令行中将无法直接使用 python,需要手动配置环境变量,操作会相对繁琐。
  1. 勾选完成后,点击 Install Now,等待安装完成即可
    1. 安装完成后,你的电脑中就已经具备了基础的 Python 运行环境。

2️⃣ 安装 Python 版本管理器(强烈推荐)

虽然已经成功安装了 Python,但在实际使用中,我们经常会遇到这些情况:
  • 不同项目需要 不同版本的 Python
  • 想快速查看当前默认 Python 版本
  • 希望方便地 安装、卸载、管理多个 Python 版本
因此,这里强烈推荐再安装一个 Python 版本管理器,它可以帮助你:
  • 📌 管理多个 Python 版本
  • 🧹 更干净地安装与卸载 Python
  • 🧠 避免版本混乱导致的环境问题
💡 使用版本管理器几乎是开发者的标配,后面所有教程也都会基于它来操作。
notion image

⚙️ 使用 Python 版本管理器

安装完成后,直接保持默认设置即可,无需额外修改任何选项。
安装完成后:
  1. 打开 命令行终端
      • Windows:Win + R → 输入 cmd
      • 或在开始菜单中搜索「命令提示符」
  1. 输入以下命令并回车:
该命令是 Python 版本管理器提供的命令,用于查看:
  • 当前已经安装的 Python 版本
  • 哪个版本是默认使用的

❗ 如果 py list 执行报错怎么办?

如果你在执行 py list 时提示命令不存在或报错,大概率原因如下
在前面「手动安装 Python」的过程中,系统自动安装了 旧版 Python Launcher,与当前使用的版本管理器产生了冲突。

✅ 解决方法

  1. 打开 系统设置 → 应用 / 已安装的应用
  1. 搜索:Python Launcher
  1. 找到后将其 卸载
⚠️ 注意区分名称,不要卸载错了:
  • Python Launcher(需要卸载)
  • Python Install Manager(这是我们新安装的,不要卸载
卸载完成后,重新打开终端,再次执行:
一般即可正常显示。

3️⃣ 设置默认 Python 版本(我常用的方法)

接下来讲一个我日常最常用、也最不容易出错的 Python 版本切换方式。

🧩 原理说明

通过系统环境变量,指定一个「默认 Python 版本」,让管理器在启动时自动使用它。

🛠️ 设置步骤

  1. 打开 系统环境变量设置
      • Windows:
        • 搜索「环境变量」
        • 选择「编辑系统环境变量」
        • 点击「环境变量」
  1. 新增一个 系统变量(或用户变量也可以):
      • 变量名
        • 变量值
      1. 保存并关闭所有窗口
        1. notion image

      🔍 如何确认版本是否正确?

      你可以再次执行:
      你会看到类似这样的输出:
      • 带有 标记的版本
        • 👉 就是当前默认使用的 Python 版本
      例如:
      notion image
      这里的 3.12,正好对应我们在环境变量中设置的值。

      💡 补充说明

      • 如果 没有设置 这个环境变量:
        • 默认会使用「最后安装的 Python 版本
        • 严格来说,是按照 环境变量中的顺序 决定的
      • 当然,也还有其他方式可以切换版本:
        • 修改配置文件
        • 使用命令临时切换
      • 但我个人更推荐这种方式:
        • ✅ 不容易出错
        • ✅ 不用记命令
        • ✅ 一次设置,长期生效
       
      到这里为止,我们的 Python 基础环境 已经全部安装并配置完成了。
      如果前面的步骤都没有报错,那么说明你的系统已经可以正常运行 Python 项目了。
      接下来,我们正式开始尝试运行 Qwen3-TTS

      4️⃣ 准备 Qwen3-TTS 运行目录

      在开始之前,我们先为 Qwen3-TTS 创建一个独立的工作目录,用于存放代码、模型文件以及后续生成的相关内容。

      📁 创建项目目录

      请在你的电脑中创建以下目录Qwen3-TTS:
      notion image
      你可以通过以下任意方式完成:
      • 在文件资源管理器中手动创建
      • 或在命令行中执行创建命令
      💡 说明:
      我这里的目录中已经运行过相关内容,可能包含其他文件夹。
      如果你是第一次创建这个目录,里面是空的属于正常情况,不用担心。

      5️⃣ 创建并使用 Python 虚拟环境

      接下来,我们需要在刚刚创建的 Qwen3-TTS 项目目录 中,创建一个独立的 Python 虚拟环境。

       

      📂 进入项目目录

      1. 打开 命令行终端
      1. 使用 cd 命令进入上一步创建的目录:
      确认当前路径已经位于该目录下,再继续后续操作。

      🧪 创建虚拟环境

      在项目目录中,执行以下命令创建虚拟环境:
      你也可以使用下面这个命令,明确指定 Python 版本 来创建虚拟环境:

      🔍 两种写法的区别

      • py -m venv .venv
        • 使用当前终端正在使用的 Python 版本
        • 通常就是系统默认版本
      • py -3.12 -m venv .venv
        • 明确指定使用 Python 3.12
        • 更适合对版本有严格要求的项目

      📌 命令参数说明(了解即可)

      • python:用于执行命令的 Python 解释器
      • m:以“模块”的方式运行
      • venv:标准库中的虚拟环境模块
      • ENV_DIR:虚拟环境目录名称(必填)
      执行完成后,你会在当前目录下看到一个:
      文件夹,这就是我们创建好的 虚拟环境

      🤔 为什么一定要使用虚拟环境?

      当你在一台电脑上同时运行多个 Python 项目时:
      • 不同项目依赖的库版本可能不同
      • 很容易出现 依赖冲突、版本覆盖等问题
      虚拟环境的作用就是:
      隔离每个项目的依赖环境
      各项目互不影响,安全、干净、可控
      这是 Python 项目的标准做法

      ▶️ 激活虚拟环境

      创建完成后,需要进入(激活)虚拟环境。
      请根据你当前使用的终端类型,选择对应命令:

      1️⃣ CMD(命令提示符)

      2️⃣ PowerShell

      这两个命令的含义是:
      • 当前目录为起点
      • 执行 .venv\Scripts\ 目录中的激活脚本
      • 将当前终端切换到该虚拟环境中

      ✅ 验证虚拟环境是否生效

      激活成功后,命令行前面会出现类似:
      此时可以执行:
      示例输出:
      说明当前虚拟环境正在使用 Python 3.12.10,一切正常。

      6️⃣ 安装 Qwen3-TTS

      确保你已经进入虚拟环境后,执行以下命令安装 Qwen3-TTS:
      等待安装完成即可。

      7️⃣ 尝试启动(此时运行失败是正常的)

      安装完成后,可以先尝试执行下面的命令:
      ⚠️ 这里基本可以确定是运行不起来的,这是完全正常的。
      原因是:
      • Qwen3-TTS 还需要额外的运行环境配置
      • 并且我不推荐在没有 GPU 的情况下运行
      • 大模型相关任务,基本都离不开 GPU 支持

      📖 启动命令含义说明

      其中:
      • qwen-tts-demo
        • 👉 Qwen3-TTS 提供的示例启动命令
      • <model_id>
        • 👉 模型在 Hugging Face 上的唯一标识
      示例中的模型:

      🤖 什么是 Hugging Face?

      Hugging Face 是一个:
      • 开源模型托管平台
      • 大模型社区与生态中心
      • 提供模型下载、文档、示例代码
      你可以在该平台上找到:
      • 各类大语言模型
      • 语音、图像、多模态模型
      • 以及对应的使用说明
      后续 Qwen3-TTS 的模型文件,也正是从这里获取的。

      8️⃣ 安装 Qwen3-TTS 所需的系统环境

      接下来我们开始安装 Qwen3-TTS 运行所必须的系统级依赖
      这些工具不是 Python 库,而是会被程序直接调用的外部工具。

      🎵 安装 SoX(音频处理工具)

      🔎 SoX 是什么?

      SoX(Sound eXchange) 是一个常用的音频处理工具:
      • 音频格式转换
      • 重采样、裁剪、处理音频流
      • 功能定位上类似 ffmpeg
      👉 Qwen3-TTS 在运行过程中会依赖 SoX
      如果系统中没有正确配置 SoX,程序将无法正常生成或处理音频。

      📥 下载 SoX

      请前往 SoX 官方下载页面:
      下载完成后,得到一个 Windows 安装程序(.exe 文件)。

      🛠️ 安装 SoX

      1. 双击下载好的 SoX 安装程序
      1. 直接默认安装即可
      1. 安装过程中可以自行修改安装目录(建议记住该路径)
        1. notion image

      ⚙️ 添加 SoX 到系统环境变量

      安装完成后,必须将 SoX 的安装目录添加到系统环境变量中,否则:
      ❌ Qwen3-TTS 将无法找到 sox 命令,运行时会直接报错

      操作说明(Windows)

      1. 打开 系统环境变量设置,我这边是在用户变量。
      1. 找到 Path 环境变量
      1. 新增一条路径,填入 SoX 的安装目录
      1. 保存并关闭所有窗口
      notion image
      ✅ 验证 SoX 是否安装成功
      ⚠️ 必须重新打开一个新的终端窗口(非常重要)
      在新终端中执行:
      如果输出类似下面的内容,说明:
      • SoX 已成功安装
      • 环境变量配置正确

      📌 常见注意事项

      • ❗ 如果你是在 旧终端窗口中执行命令,很可能会提示找不到 sox
      • 修改环境变量后,一定要 重新打开终端
      • 只要能正常输出版本号,就代表这一步已经完成
       

      9️⃣ 确认 PyTorch 是否为 CUDA 版本(是否支持 GPU)

      在运行 Qwen3-TTS 之前,必须确认当前虚拟环境中的 PyTorch 是 CUDA 版
      如果是 CPU 版 PyTorch,即使你电脑有显卡,也无法使用 GPU 运行模型

      🔍 检查 PyTorch 与 CUDA 状态

      请确保你已经 进入虚拟环境(.venv,然后执行以下命令:

      ✅ 正常情况(CUDA 版 PyTorch)

      如果你的输出结果类似下面这样,说明 GPU 环境一切正常
      含义说明:
      • +cu126:表示 PyTorch 是 CUDA 12.6 版本
      • cuda: True:GPU 可用
      • torch cuda: 12.6:PyTorch 使用的 CUDA 版本
      👉 这种情况可以直接继续后续步骤,无需处理。

      ❌ 异常情况(CPU 版 PyTorch)

      如果你看到的是类似下面的输出:
      这就意味着:
      • 当前安装的是 CPU 版 PyTorch
      • GPU 无法被使用
      • Qwen3-TTS 基本无法正常运行(或性能极差)

      🧹 卸载 CPU 版 PyTorch(如存在)

      如果你遇到了上面的 CPU 情况,请先卸载已有的 PyTorch 相关包:
      💡 一般情况下你可能还没安装过这些包,如果提示不存在,直接忽略即可。

      📥 安装 CUDA 版 PyTorch(推荐做法)

      接下来,我们需要从 PyTorch 官方 获取 CUDA 版本的安装方式。
      notion image

      🔹 官方示例命令(不推荐直接用)

      这是 PyTorch 官网给出的默认 CUDA 安装命令(不包含 torchaudio):

      📌 为什么要额外安装 torchaudio?

      • Qwen3-TTS 依赖 torchaudio
      • 单独后装可能出现版本不一致问题
      • 所以这里直接 一次性同源安装,最稳妥

      ✅ 推荐使用的完整命令(强烈推荐)

      请在 虚拟环境中 执行下面这条命令:
      这条命令会:
      • 安装 CUDA 12.6 版 PyTorch
      • 同时安装 torchvisiontorchaudio
      • 确保三者 版本一致、来源一致

      🔁 安装完成后再次验证

      安装完成后,请 重新执行最开始的检测命令
      只要看到:
      • cuda: True
      • 且版本号包含 +cuXXX
      就说明 GPU 环境已经配置完成 🎉

      🔟 再次确认 PyTorch 已成功切换为 CUDA 版

      在完成 PyTorch 重新安装后,我们需要再次验证当前虚拟环境中使用的是否是 CUDA 版 PyTorch
      请在 虚拟环境(.venv)中 执行以下命令:
      如果你看到:
      • 版本号包含 +cuXXX
      • cuda: True
      说明 PyTorch 已成功切换为 GPU 版本

      ✅ 运行前的完整环境检查(强烈推荐)

      到这里为止,运行环境已经基本准备完成。
      在真正启动 Qwen3-TTS 之前,建议做一次完整的环境校验,可以提前发现潜在问题。
      ⚠️ 以下所有验证 都必须在虚拟环境中执行,因为依赖都是安装在 .venv 里的。

      1️⃣ 验证 torch / torchvision / torchaudio

      首先确认三大核心库:
      • 是否安装成功
      • 是否能正常导入
      • 版本是否一致(同为 CUDA 版)
      执行:
      示例输出:
      👉 三者均为 +cu126,说明版本 来源一致、环境正确

      2️⃣ 确认 CUDA 与显卡识别情况

      接下来确认:
      • CUDA 是否可用
      • PyTorch 使用的 CUDA 版本
      • 是否正确识别到你的显卡
      执行:
      示例输出:
      👉 如果能正确显示你的显卡型号,说明 GPU 环境完全可用

      3️⃣ 确认 qwen-tts 依赖是否正常

      最后检查 Qwen3-TTS 本身是否能被正常导入:
      示例输出:
      👉 说明 Qwen3-TTS 的 Python 依赖 全部正常

      🚀 正式启动 Qwen3-TTS

      至此,所有运行环境与依赖均已确认无误。
      现在可以正式启动 Qwen3-TTS

      📝 参数说明

      • Qwen/Qwen3-TTS-12Hz-0.6B-Base
        • 👉 使用的模型 ID(来自 Hugging Face)
      • -no-flash-attn
        • 👉 在部分显卡 / Windows 环境下更稳定
          👉 可避免 Flash Attention 相关兼容性问题

      ⚡ 关于 -no-flash-attn 参数说明

      在启动命令中,我们使用了:
      这表示 不使用 flash-attn

      🔎 什么是 flash-attn(FlashAttention)?

      FlashAttention 是一个使用 定制 CUDA 内核 实现的高性能注意力计算库:
      • 针对 Transformer 的 Attention 计算 做了深度优化
      • 目标是:
        • 🚀 更快的推理 / 训练速度
        • 🧠 更低的显存占用
      • 目前被大量大模型项目用于加速推理和训练

      🤔 那为什么一开始要禁用它?

      加上 --no-flash-attn 后:
      • Qwen3-TTS 会走 纯 PyTorch 实现
      • ✅ 稳定、通用、几乎不踩坑
      • ❌ 速度会慢一些,显存占用也相对更高
      👉 我们先确保:程序能正常跑起来
      👉 然后再上 flash-attn 做性能优化,这是最稳妥的流程

      🌐 访问 Qwen3-TTS Web 页面

      当命令成功运行后,终端中会输出一个访问地址。

      默认本地访问

      直接在浏览器中打开:
      或者直接点击终端中显示的链接即可。

      局域网访问(可选)

      如果你希望在 同一局域网内的其他设备(如手机、平板、其他电脑)访问:
      ⚠️ 是否能访问,取决于你的网络、防火墙与启动参数配置
      本教程暂不展开网络安全相关内容

      🚀 进阶:安装 flash-attn(性能优化)

      在确认 Qwen3-TTS 可以正常运行 之后,我们就可以开始安装 flash-attn,进一步提升性能。

      📥 下载 flash-attn 官方 Wheel

      flash-attn 不建议用 pip 直接编译安装(Windows 非常容易失败)
      正确做法是:直接下载官方提供的 wheel 文件

      官方网站


      🔍 选择对应的版本

      请根据你的当前环境,选择以下条件完全匹配的 wheel:
      • 平台win_amd64
      • Pythoncp312
      • PyTorchtorch2.10
      • CUDAcu12
      也就是你看到的类似:
      win_amd64 + cp312 + torch2.10 + cu12
      notion image
      复制图中命令到我们的虚拟环境中进行一个安装。
      完成 flash-attn 的安装后,我们就可以 去掉 --no-flash-attn 参数,直接启动 Qwen3-TTS:
      ✅ 说明:
      • flash-attn 已生效
      • Transformer Attention 会走高性能实现
      • 模型运行速度更快、显存占用更低
      🎉 到这里,你就可以愉快地体验 Qwen3-TTS 了!

      📝 了解模型存储位置

      为了避免迷糊,我们需要清楚 Qwen3-TTS 模型下载后存放在哪

      🔹 默认缓存目录

      Qwen3-TTS 的模型是从 Hugging Face Hub 下载的,默认不会放在项目目录中,而是放在 HF 的缓存目录:
      • Windows:
      ⚠️ <你的用户名> 替换成当前登录的 Windows 用户名

      🔹 在虚拟环境中查看缓存目录

      可以直接在虚拟环境中执行以下命令,快速获取 Hugging Face Hub 的缓存路径:
      示例输出可能类似:
      这就是模型默认存放的位置。
      安装完后我们就可以直接使用不带--no-flash-attn的命令进行启动了。
      至此我们就可以愉快的玩耍了。
      notion image
      notion image

      🗂️ 手动下载模型 & 指定存放目录

      除了默认缓存目录,我们还可以 手动下载模型到指定目录,方便管理或备份。
      ⚠️ 推荐在 全局环境 下操作,而不是虚拟环境,因为 huggingface-cli 是一个全局工具。

      1️⃣ 验证 huggingface-cli 是否可用

      在终端中执行:
      • 如果显示帮助信息,说明已经安装 ✅
      • 如果提示命令未找到,则需要先安装

      2️⃣ 安装 huggingface-cli

      执行以下命令安装或更新:
      目的:让 huggingface-cli 命令可用,以便手动下载或管理模型

      3️⃣ 进入项目目录

      切换到 Qwen3-TTS 项目目录(示例为 Windows 路径):
      💡 /d 用于切换驱动器盘符,如果你的路径在 C 盘也可以直接 cd C:\Apps\AI\Qwen3-TTS

      4️⃣ 下载模型到指定目录

      执行以下命令,将 Qwen3-TTS 模型下载到自定义目录:
      notion image
      notion image

      🔹 参数说明

      • Qwen/Qwen3-TTS-12Hz-0.6B-Base
        • 👉 Hugging Face 上的模型 ID
      • -local-dir <路径>
        • 👉 指定下载到的目录,例如 . \models\Qwen3-TTS-12Hz-0.6B-Base
      • 如果缓存目录已经存在该模型,下载过程会非常快,相当于 直接复制到指定目录

      🏠 使用本地模型启动 Qwen3-TTS

      如果你已经将模型下载到本地指定目录,也可以在虚拟环境中直接使用本地模型启动 Qwen3-TTS。

      🔹 示例命令

      假设模型下载到:
      在虚拟环境中执行:
      说明:只需将原本命令中 模型 ID 的部分替换成本地路径即可

      ⚠️ 注意事项

      • 这种方式 适用于模型已手动下载到本地 的情况
      • 如果模型仍在 Hugging Face 缓存目录或未下载,命令会报错
      • 仅在 非标准缓存管理需求迁移模型 时使用

      🔹 推荐方式

      一般情况下,还是建议直接使用缓存中的模型:
      • 不必管理本地路径
      • Hugging Face 会自动处理缓存和更新
      • 更加方便稳定
      💡 总结:除非模型来源特殊,否则尽量使用 Hugging Face Hub 缓存方式启动 Qwen3-TTS。
       
      至此,我们已经完成了从 Python 环境搭建 → 虚拟环境创建 → Qwen3-TTS 安装 → GPU 配置 → 模型管理 → 启动测试 的完整流程。
      通过这套流程,你可以:
      • 在虚拟环境中安全隔离依赖
      • 使用 GPU 高效运行 Qwen3-TTS
      • 灵活管理模型(缓存 / 本地目录)
      • 随时扩展或升级模型版本
      💡 小贴士:
      • 初次使用时,建议先使用默认缓存模型,保证流程顺畅
      • 熟悉环境后,可以尝试手动下载模型、启用 flash-attn 提升性能
      现在,你可以开始尽情体验 Qwen3-TTS 的强大功能,尽情的玩耍啦!
      notion image
      推荐云服务

      雨云 - 云服务器首选

      稳定 · 高速 · 性价比超高

      使用优惠码立享折扣,开启你的云端之旅~

      一元试用秒级开通24h在线客服

      优惠码

      zqf
      立即访问
      Loading...
      灵心小窝

      灵心小窝

      这里不是一个喧闹的地方,只是用来存放一些还不想遗忘的东西。

      声明 © 2026 早清风
      加载中...