新版 Ollama 中导入外部模型 GGUF 模型
开发学院2026-03-04 21:53:59
新版本的Ollama存储模型的结构发生了变化,本文讲解如何在 Ollama 中导入本地 GGUF 模型、创建自定义模型、运行对话,并解决最常见的自问自答问题。
新版本的Ollama存储模型的结构发生了变化,本文讲解如何在 Ollama 中导入本地 GGUF 模型、创建自定义模型、运行对话,并解决最常见的自问自答问题。当前版本0.17.5.文章写作时间2026年3月4日。
一、GGUF 模型文件下载
GGUF 是目前大模型本地运行最常用的量化格式,体积小、速度快、显存占用低。你可以在Hugging Face或者魔塔社区下载现成 GGUF 模型,下载后,将 .gguf 文件放到一个纯英文、无空格的文件夹中。
二、创建 Modelfile 配置文件
在 GGUF 文件所在目录,新建一个无后缀名的文件,命名为Modelfile,文件内只需要写一行,指定模型路径:
FROM ./你的模型文件名.gguf
示例(以 Qwen3-8B 为例):
FROM ./Qwen3-8B-Q6_K.gguf
三、在 Ollama 中创建本地模型
打开终端 / CMD,进入 GGUF 所在目录,执行:
ollama create 自定义模型名 -f Modelfile
示例:
ollama create Qwen3-8B -f Modelfile
出现 success 提示即创建完成。
常见问题:模型出现自问自答
很多 GGUF 模型没有内置聊天模板,而 Ollama 默认模板不匹配,就会出现:
自己续写
自问自答
重复输出
解决方法:修改 Modelfile,添加正确对话模板
将 Modelfile 替换为以下内容(通用版,适配绝大多数模型):
FROM ./Qwen3-8B-Q6_K.gguf
SYSTEM "你是一个专业AI助手,请根据用户输入准确回答,不编造信息。"
TEMPLATE """<|im_start|>system
{{ .System }}
<|im_end|>
<|im_start|>user
{{ .Prompt }}
<|im_end|>
<|im_start|>assistant
"""修改后重新执行创建命令即可恢复正常对话(第一次创建比较慢,后面会快一些):
ollama create Qwen3-8B -f Modelfile
完整流程总结
下载 GGUF 模型
新建 Modelfile,写 FROM 指向模型
ollama create 创建模型
ollama list 查看
ollama run 运行
自问自答 → 加模板 + 重新创建
相关文章
- 新版 Ollama 中导入外部模型 GGUF 模型
- 当 Web 开发绕回 “一体化”,PHP 玩家的底气在哪?
- 重磅:LFM2.5-1.2B-Thinking发布 1GB内存即可实现端侧高效推理
- MyBatis-Plus升级踩坑记录:一个依赖缺失引发的“惨案”
- spring+netty实现一个最小可运行的im server
- windows修改ollama程序和模型保存位置
- UE5中使用蓝图实现对象池功能
- UE5开发2D/3D混合平台跳跃游戏优化操作体验
- UE5敌人直接放置场景ok,代码生成不执行AI
- UE5中开发HD-2D游戏的优化设置与2D角色导入技巧
- nginxSpringboot项目常见配置
- 在MacOS上部署ComfyUI的指南
- 解决UE5开发Topdown2D动作游戏的旋转问题
- UE5开发2D游戏设置排序的步骤.
- 大幅提升FPS!Unreal Engine 5 最佳 2D 设置
- Aseprite在线编译教程
- 探索Nexa AI:开源边缘智能的新纪元
- Springboot项目允许根目录txt文件被访问
- lnmp一键安装包多php环境安装
- Python虚拟环境整合包制作:一键打包与运行指南