Ollama常用指令

以下是 ​Ollama 的常用指令大全,涵盖模型管理、交互操作、高级配置等场景,方便快速查阅和日常使用:


一、基础操作指令

指令 功能 示例
ollama run <模型名> 运行指定模型(自动下载若不存在) ollama run llama3
ollama list 查看本地已下载的模型列表 ollama list
ollama pull <模型名> 手动下载模型 ollama pull mistral
ollama rm <模型名> 删除本地模型 ollama rm llama2
ollama help 查看帮助文档 ollama help

二、模型交互指令

1. 直接对话

bash

ollama run llama3 "用中文写一首关于秋天的诗"
2. 进入交互模式

bash

ollama run llama3
# 进入后输入内容,按 Ctrl+D 或输入 `/bye` 退出
3. 从文件输入
 
  

bash

ollama run llama3 --file input.txt
4. 流式输出控制
参数 功能 示例
--verbose 显示详细日志 ollama run llama3 --verbose
--nowordwrap 禁用自动换行 ollama run llama3 --nowordwrap

三、模型管理

1. 自定义模型配置(Modelfile)​

创建 Modelfile 文件:

modelfile

FROM llama3  # 基础模型
PARAMETER temperature 0.7  # 控制随机性(0-1)
PARAMETER num_ctx 4096     # 上下文长度
SYSTEM """                 # 系统提示词
你是一个严谨的学术助手,回答需引用论文来源。
"""

构建自定义模型:

bash

ollama create my-llama3 -f Modelfile
ollama run my-llama3
2. 查看模型信息

bash

ollama show <模型名> --modelfile  # 查看模型配置
ollama show <模型名> --parameters # 查看运行参数

四、高级功能

1. API 调用

启动 API 服务:

bash

ollama serve

通过 HTTP 调用:

bash

curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt": "你好",
  "stream": false
}'
2. 多模态支持(需自定义模型)​

python

import ollama
response = ollama.generate(
    model="llava",
    prompt="描述这张图片",
    images=["base64编码的图片数据"]
)
3. GPU 加速配置

bash

# 指定显存分配比例(50%)
ollama run llama3 --num-gpu 50

五、实用技巧

1. 模型量化版本选择
模型后缀 精度 显存占用 适用场景
Q2_K 2-bit 最低 快速测试
Q4_K_M 4-bit 中等 平衡性能与精度
Q6_K 6-bit 较高 高质量输出

下载量化模型:

bash

ollama pull llama3:8b-q4_k_m
2. 性能优化参数

bash

# 提升生成速度(牺牲部分质量)
ollama run llama3 --num-predict 512 --temperature 0.3
3. 上下文管理

bash

# 重置对话历史
/bye  # 退出当前会话后重新进入

六、故障排查

1. 常见问题
问题 解决方案
模型下载失败 检查网络,尝试 ollama pull --insecure-registry
显存不足 使用量化模型(如 q4_k_m)或减少 num-gpu 值
GPU 不兼容 添加 --nvidia 参数或更新驱动
2. 日志查看

bash

tail -f ~/.ollama/logs/server.log

七、扩展资源

  1. 官方模型库
    registry.ollama.ai/library
  2. 社区模型
    Hugging Face GGUF 模型库
  3. API 文档
    Ollama REST API 文档

你可能感兴趣的:(microsoft,windows)