在飞桨AIStudio星河社区使用Ollama运行DeepSeek-r1大模型

星河社区是非常好的开源AI社区,提供免费的V100算力环境。

前段时间对DeepSeek感兴趣,发现使用Ollama部署非常简单方便。但是星河社区因为没有sudo权限,所以Ollama没法按照常规方法安装,后来发现可以使用手动方法安装

手动安装Ollama

下载Ollama软件

wget https://github.com/ollama/ollama/releases/latest/download/ollama-linux-amd64.tgz

解压缩

tar -xzvf ollama-linux-amd64.tgz

执行

解压缩后,文件目录为:

 bin  lib 

执行文件就放在bin目录里,直接执行即可。

启动Ollama 服务

./bin/ollama serve

启动服务后,另开一个终端,开始下载DeepSeek模型

下载deepseek-r1:1.5b模型

./bin/ollama pull deepseek-r1:1.5b

运行deepseek-r1:1.5b模型

./bin/ollama run deepseek-r1:1.5b

也可以不执行pull,直接run,ollama会自动下载模型并执行。

run后,就可以交互啦!

但是使用普通cpu基础班环境交互起来感觉很慢,比ntel(R) Xeon(R) CPU E5-2643 v2 @ 3.50GHz   的HP老机器要慢多了。

换成GPU环境,星河GPU环境V100 16G 速度非常快,这才是该有的速度!

让deepseek写了一段汉诺塔的代码:

ef hanoi(n, source, target, auxiliary):
    if n == 0:
        return
    hanoi(n-1, source, auxiliary, target)
    print(f"Move disk {n} from {source} to {target}")
    hanoi(n-1, auxiliary, target, source)

# 实例化汉诺塔
hanoi(3, 'A', 'C', 'B')

直接就能运行,证明deepseek这个大模型效果还是不错的!

你可能感兴趣的:(编程语言,人工智能,paddlepaddle,人工智能,DeepSeek,ollama)