如何利用大模型结合文本语义实现文本相似度分析?

常规的文本相似度计算有TF-IDF,Simhash、编辑距离等方式,但是常规的文本相似度计算方式仅仅能对文本表面相似度进行分析计算,并不能结合语义分析,而如果使用机器学习、深度学习的方式费时费力,效果也不一定能达到我们满意的状态,随着大模型技术的日渐成熟,我们是否可以利用大模型来完成文本相似度分析呢?  

本文将结合文心一言4.0来介绍两种文本相似度分析的方法:

方式一

提供prompt,直接调用大模型接口,输出文本相似度结果。示例如下

如何利用大模型结合文本语义实现文本相似度分析?_第1张图片

方式二

方式一虽然结果更加准确,可解释性也更强,但调用大模型分析会相对比较耗时,且资费较贵,所以我们也可以采用生成文本embedding向量的方式来计算文本相似度,以文心一言embedding接口为例,代码示例如下

def get_embeddings(inputs):
    """
    生成文本embeddings
    :param inputs: 
    :return: 
    """
    url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/embeddings/embedding-v1?access_token=" + get_access_token()

    payload = json.dumps({
        "input": inputs
    })
    headers = {
        'Content-Type': 'application/json'
    }
    response = requests.request("POST", url, headers=headers, data=payload)
    return [data['embedding'] for data in json.loads(response.text)['data']]


def calculate_similarity(embedding_vector1, embedding_vector2):
    """
    计算向量余弦相似度
    :param embedding_vector1: 
    :param embedding_vector2: 
    :return: 
    """
    embedding_vector1 = np.array(embedding_vector1)
    embedding_vector2 = np.array(embedding_vector2)

    cosine_similarity = np.dot(embedding_vector1, embedding_vector2.T) / (
                np.linalg.norm(embedding_vector1) * np.linalg.norm(embedding_vector2))
    return cosine_similarity


if __name__ == '__main__':
    texts = ['今天天气真好,阳光明媚,适合外出散步。',
             '今日气候宜人,阳光普照,正是散步的好时机。']
    embeddings = get_embeddings(texts)
    similarity = calculate_similarity(embeddings[0], embeddings[1])
    print(similarity)

你可能感兴趣的:(LLM,文心一言,python,nlp)