大模型:LangChain技术讲解

一、什么是LangChain

1、介绍

LangChain是一个用于开发由大型语言模型提供支持的Python框架。它提供了一系列工具和组件,帮助我们将语言模型集成到自己的应用程序中。
有了它之后,我们可以更轻松地实现对话系统、文本生成、文本分类、问答系统等功能。

2、LangChain官网文档

官网:https://python.langchain.com/docs/introduction/

3、LangChain的核心组件

  • 语言模型(Model):如OpenAI的GPT-3。
  • 提示管理(Prompt):Prompt管理。
  • 链(chain):允许将多个组件(如语言模型、提示模板、记忆等)串联起来,形成一个工作流。
  • 记忆(Memory):记忆模块用于保存对话历史或上下文信息,以便在后续对话中使用。
  • 代理(Agent):代理是一种智能组件,可以根据用户的输入自动选择和执行不同的操作。
  • 工具(Tool):工具是一些内置的功能模块,如文本处理工具、数据查询工具等。

二、语言模型

1、介绍

把不同的模型,统一封装成一个接口,方便更换模型而不用重构代码。以下是使用语言模型从输入到输出的基本流程:
大模型:LangChain技术讲解_第1张图片
一下是对每一块的总结:

  • Format(格式化):将原始数据格式化成模型可以处理的形式,插入到一个模版问题中,然后送入模型进行处理。
  • Predict(预测):接受被送进来的问题,然后基于这个问题进行预测或生成回答。
  • parse(生成):预测输出被进一步格式化成一个结构化的JSON对象。

2、单轮对话

3、多轮对话

# 1、创建模型
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage
from langchain_ollama import ChatOllama

ollama = ChatOllama(base_url='http://localhost:11434', model="qwen2")

messages = [
    SystemMessage(content="你是langchain的课程助理。"),
    HumanMessage(content="我是学员,我叫 Tom"),
    AIMessage(content="欢迎"), # 提前模拟场景,为后续交互做准备
    HumanMessage("我是谁,你是谁")
]

print(ollama.invoke(messages).content)

通过这种方式,我们可以:

  • 测试AI模型在特定上下文下的表现。
  • 确保AI模型能够正确理解并响应用户的输入。
  • 调整和优化对话流程,以便在实际应用中提供更好的用户体验。

三、格式化输出

1、OutputParser

CSV parser当您想要返回以逗号分隔的项目列表时,可以使用此输出解析器。

from langchain_core.output_parsers import CommaSeparatedListOutputParser

output_parser = CommaSeparatedListOutputParser()
# 返回一些指令或模版,这些指令告诉系统如何解析或格式化输出数据
print(output_parser.get_format_instructions())

# 输入的字符串按照特定的规则进行解析和转换
reply = 'foo,bar,baz'
print(output_parser.parse(reply))

在这里插入图片描述

2、Datetime parser

3、Pydantic OutputParser

你可能感兴趣的:(【大模型】,langchain)