Sentence-BERT模型的句子级语义相似

目录

  • 一、前言
  • 二、Sentence-BERT原理介绍
    • 2.1、BERT模型介绍
      • (1)、预测遮住的单词
      • (2)、预测下一个句子
    • 2.2、Sentence-BERT原理
  • 三、Sentence-BERT模型应用
    • 3.1、问题及技术解决方案
    • 3.2、技术代码实现

一、前言

  在很多专业场景下,传统的搜索引擎不能满足客户灵活性问题的“解答”。深入理解客户问题的语义信息,是传统搜索需要解决的一大难题。
  在一些应用场景中,当用户不知道搜索什么内容时,或者输入相应内容希望得到结果,这时候普通ES索引是不太精准了,因为它不理解用户的语义。
  例如:“苹果公司发布了新款手机” 和 “苹果推出了新的移动设备”、“如何制作蛋糕”和“蛋糕的制作方法” 等等,这些问题在词语上相近较少,但语义上相似度极高。如何去解决上面的问题?--------S-BERT模型实现句子级语义信息表达

  基于前面几篇博客的介绍,有各类文档采用不同的技术进行精准的文本、图片等信息提取。在此基础上,对文本内容进行向量化【S-BERT模型的句子级向量化】,为ES余弦相似度搜索提供方案,从而实现“理解语义信息”的智能化搜索

二、Sentence-BERT原理介绍

  BERT:通常输出词级别的表示。适用于需要深入理解文本中词法、句法和语义信息的任务,如文本分类任务中需要分析每个词对类别判断的影响,命名实体识别任务中需要准确识别每个词的实体类型等。
  S - BERT:

你可能感兴趣的:(知识图谱,bert,深度学习)