大模型(LLM)应用:根据自己数据集的问答聊天;text2vec句向量生成处理数据集、RAG 检索增强案例

参考链接:
基于本地知识的 ChatGLM 问答
https://github.com/imClumsyPanda/langchain-ChatGLM
https://www.cnblogs.com/fxjwind/p/17401783.html
https://juejin.cn/post/7236028062873550908

一、LLM 自有数据使用方法

1、使用框架步骤


1)首先将本地数据集(本地知识)embedding 存到向量库中

2)使用时将用户问题首先embedding ,然后通过向量相似度从上面的向量库召回相关内容

3)提示(prompt)构建,将用户问题与向量库召回的最相关的内容进行提示构建

4)用构建好的提示送到LLM大模型进行回答

2、简单示例代码

具体实现请参考https://github.com/imClumsyPanda/langchain-ChatGLM;本地由于点资源问题,只简单示例下第四步4)用构建好的提示送到LLM大模型进行回答

chatglm参考:https://blog.csdn.net/weixin_42357472/article/details/130342799

from transformers import 

你可能感兴趣的:(深度学习,人工智能,python,开发语言)