ollama轻松拉取huggingface上的大模型

要使用Ollama拉取Hugging Face上的大模型,你可以按照以下步骤操作:

  1. 升级Ollama:确保你的Ollama是最新版本,因为新版本支持直接运行Hugging Face上的GGUF格式模型。

  2. 找到模型:访问Hugging Face官网,找到你需要的大模型,并记录下模型的网址。

  3. 使用镜像站:由于国内网络环境的问题,可能无法直接访问huggingface.co,可以将网址替换为镜像站网址hf-mirror.com,例如将 https://huggingface.co/NexaAIDev/omnivision-968M 替换为 https://hf-mirror.com/NexaAIDev/omnivision-968M

  4. 拉取模型:使用Ollama命令拉取模型,格式为 ollama run hf-mirror.com/{username}/{repository}:{quantization},其中 {quantization} 是模型的量化版本,如果不写的话默认为 latest,即最新发布的版本。例如,拉取一个名为 omnivision-968M 的模型,命令可以是 ollama run hf-mirror.com/NexaAIDev/omnivision-968M:494M-Q8_0

  5. 指定量化版本:如果需要指定特定的量化版本,可以在模型名后加上冒号和量化方案名称,例如 ollama run hf.co/{username}/{repository}:{quantization}

  6. 运行模型:执行上述命令后,Ollama会检查本地是否有该模型,如果没有,会自动从Hugging Face或镜像站下载,并运行该模型。

请注意,每次运行 ollama run 命令时,Ollama都会尝试从模型库中拉取GGUF模型,这可能会导致空间浪费,因为每次都会重新下载模型。如果你遇到网络连接问题,可以尝试使用代理或者设置镜像源来加速下载。

你可能感兴趣的:(ollama动手,深度学习基础动手,ollama,服务器,python,人工智能,深度学习,自然语言处理)