langchain +Ollama+调用本地deepseek模型python代码实现

      langchain 可以简单理解成一个python 库,库中提供了对于大模型的调用,以及对应大模型数据输入格式。你可以使用langchain定义的格式封装自己训练好的模型。通过langchain调用。

    首先是在python环境中创建一个项目,并指定创建的虚拟环境。如图所示。本次环境创建是使用conda,如果没有安装conda,也可以使用project venv 来进行虚拟环境创建。

langchain +Ollama+调用本地deepseek模型python代码实现_第1张图片

在pycharm 右下角,找到刚刚创建好的虚拟环境。选择

langchain +Ollama+调用本地deepseek模型python代码实现_第2张图片

在控制命令行中输入安装命令

pip install langchain

pip install langchain langchain_ollama

langchain +Ollama+调用本地deepseek模型python代码实现_第3张图片

最后一步调用本地部署的deepseek r1 进行LLM调用  代码如下 在langChain 中申请的key不是必须的,也可以不申请,只不过不申请无法看到对于这个模型调用一些过程什么的。可以理解成一个日志功能。

import os
from langchain_ollama import OllamaLLM

os.environ['LANAGCHAIN_TRACING_V2'] = "true"
os.environ['LANAGCHAIN_API_KEY'] = '在langChain中申请一个key'



model = OllamaLLM(
    base_url="http://localhost:11434",
    model="deepseek-r1:1.5b"
)
message = [
    (
        "system",
        "python代码实现"
    ),
    (
        "human",
        "实现一个贪吃蛇小游戏"
    )
]

# 使用模型进行推理
response = model.invoke(message)
print(response)

你可能感兴趣的:(langChain,deepseek,ollama,langchain)