ollama部署通义大模型公网访问

最近闲来无事玩大模型,不过需要硬件需求:

  • 独显主机且显卡驱动正常,可能最好英伟达显卡,别的没试过
  • windows系统安装了wsl和docker desktop
  • 公网ip的云服务器(或者别的内网穿透方案)
  • 本地另一台穿透中继服务器(如树莓派,非必须)

部署当然首选ollam,去下面网页下载安装就好,其实安装最简单

OllamaGet up and running with large language models.icon-default.png?t=O83Ahttps://ollama.com/这是一个大模型平台,里面有很多大模型可选,不过考虑中文还是优选通义千问大模型,安装后可能命令行窗口会卡住很久不动也不下载,不过我在ollama界面中发现已经下载完成了(右下角隐藏任务栏),直接在命令行敲回车就进入交互界面了。

你可能感兴趣的:(ollama)