深度学习-92-大语言模型LLM之基于langchain的模型IO的模型调用

文章目录

  • 1 Model的输入输出
  • 2 langchain支持的模型
  • 3 调用Ollama模型
    • 3.1 设置环境变量
    • 3.2 大语言模型LLM(OllamaLLM)
      • 3.2.1 生成文本补全
      • 3.2.2 流式生成文本补全
    • 3.3 聊天模型(ChatOllama)
      • 3.3.1 内置的消息类型
      • 3.3.2 HumanMessage和SystemMessage
      • 3.3.3 元组方式构成消息列表
      • 3.3.4 stream流式
    • 3.4 文本嵌入模型(OllamaEmbeddings)
  • 4 参考附录

深度学习-92-大语言模型LLM之基于langchain的模型IO的模型调用_第1张图片

1 Model的输入输出

LangChain的模型是框架中的核心,基于语言模型构建,用于开发LangChain应用。
通过API调用大模型来解决问题是LangChain应用开发的关键过程。

可以把对模型的使用过程拆解成三块: 输入提示(Prompt)、调用模型(Model)、输出解析(Parse)。
(1)提示模板: LangChain的模板允许动态选择输入,根据实际需求调整输入内容,适用于各种特定任务和应用。
(2)语言模型: LangChain提供通用接口调用不同类型的语言模型,提升了灵活性和使用便利性。
(3)输出解析: 利用LangChain的输出解析功能,精准提取模型输出中所需信息,避免处理冗余数据,同时将非结构化文本转换为可处理的结构化数据,提高信息处理效率。

这三块形成了一个整体,在LangChain中这个过程被统称为Model输入或输出。针对每块环节,LangChain都提供了模板和工具,可以帮助快捷的调用各种语言模型的接口。

2 langchain支持的模型

LangChain支持的模型有三大类ÿ

你可能感兴趣的:(深度学习,深度学习,语言模型,langchain)