应用台导航页
  • 主页
  • 博客
  • 知识库
  • 工作台
  • 集萃
  • 友链
  • 关于
关于 LLM 应用,我知道的

关于 LLM 应用,我知道的

技术
更新于 2026-03-24
— 486 字
返回
本文收录于以下知识库
dev

错误  AssertionError: Torch not compiled with CUDA enabled  的核心含义是:你安装的 PyTorch 版本不支持 CUDA(显卡加速),但 Qwen3-TTS 代码默认尝试使用 GPU 运行,导致初始化失败。


https://ollama.com/

在对话中就能直接让模型搜索最新信息

Ollama 在 2026 年 3 月 15 日发布的 0.18.1 版本中,已经内置了网页搜索与抓取插件,能让本地大语言模型获得联网搜索能力。使用时启用 web search 插件,比如执行 “ollama serve --enable-web-search” 命令即可。

Ollama官网下载Windows安装包,双击按提示安装就行,安装后会自动配置环境变量。打开PowerShell或命令提示符,输入“ollama --version”能看到版本号就说明安装成功了。

模型参数量

这里的“1.7B”和“0.6B”指的是模型的参数量,“B”是“Billion”的缩写,也就是10亿。1.7B就是17亿参数,0.6B就是6亿参数。参数量越大,模型通常能学习到更复杂的模式,但对计算资源的要求也更高。

dors logoDors

Dors 是花野猫开发为知识工作者打造的数字花园应用,包含的博客、个人记事本、及其他实用功能。

花园

  • 花坛——博客
  • 果园——知识库

工坊——作者开发的实用工具

  • 小记
  • 秒切——一键按秒分割视频
  • 中国重点高校地理位置可视化网站
  • 中国行政区划数据查询平台
  • excel 重命名工具

misc

  • 生活章程
  • 画廊
  • just have fun!

© 2022 - present. All Rights Reserved.滇ICP备2025063395号-1

花野猫打造