通过官方安装脚本覆盖旧版本,适用于在线环境:
curl -fsSL https://ollama.com/install.sh | sh
ollama --version
查看版本号。适用于无网络环境或自定义安装路径:
# 下载指定架构的二进制包(示例为AMD64)
wget https://ollama.com/download/ollama-linux-amd64 -O /usr/bin/ollama
chmod +x /usr/bin/ollama
sudo systemctl restart ollama
。install.sh
和对应架构的离线包(如 ollama-linux-amd64.tgz
)。chmod +x ./install.sh
./install.sh
若需允许远程访问,修改服务配置文件:
sudo vi /etc/systemd/system/ollama.service
在 [Service]
部分添加:
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
重载配置:
sudo systemctl daemon-reload
sudo systemctl restart ollama
若使用 NVIDIA GPU,启动时添加参数:
docker run -d --gpus all -p 11434:11434 ollama/ollama
操作 | 命令 | 说明 |
---|---|---|
检查当前版本 | ollama --version |
输出类似 ollama version 0.1.32 |
安装指定旧版本 | OLLAMA_VERSION=0.1.32 sh install.sh |
适用于降级测试 |
查看模型兼容性 | ollama list |
确认模型与新版本兼容 |
ollama pull qwen:7b-chat # 示例:拉取通义千问7B模型
~/.ollama/models/
,可通过环境变量 OLLAMA_MODELS
自定义。cp -r ~/.ollama ~/.ollama_backup
sudo apt install build-essential
。sudo rm $(which ollama) # 清除旧二进制文件
sudo userdel ollama # 删除服务用户
Ollama 的更新本质是二进制替换+服务重启,重点在于环境适配与配置继承。建议生产环境优先选择脚本自动更新,并关注官方GitHub的版本日志。遇到驱动或网络问题可参考离线方案,模型兼容性问题可通过重拉取解决。
附:更新后性能测试工具推荐
curl -X POST http://localhost:11434/api/generate -d '{ "model": "deepseek-r1:8b", "prompt": "解释量子纠缠效应" }' # 测响应速度与完整性