错误 AssertionError: Torch not compiled with CUDA enabled 的核心含义是:你安装的 PyTorch 版本不支持 CUDA(显卡加速),但 Qwen3-TTS 代码默认尝试使用 GPU 运行,导致初始化失败。
在对话中就能直接让模型搜索最新信息
Ollama 在 2026 年 3 月 15 日发布的 0.18.1 版本中,已经内置了网页搜索与抓取插件,能让本地大语言模型获得联网搜索能力。使用时启用 web search 插件,比如执行 “ollama serve --enable-web-search” 命令即可。
Ollama官网下载Windows安装包,双击按提示安装就行,安装后会自动配置环境变量。打开PowerShell或命令提示符,输入“ollama --version”能看到版本号就说明安装成功了。
模型参数量
这里的“1.7B”和“0.6B”指的是模型的参数量,“B”是“Billion”的缩写,也就是10亿。1.7B就是17亿参数,0.6B就是6亿参数。参数量越大,模型通常能学习到更复杂的模式,但对计算资源的要求也更高。
