如何增强LLM(大语言模型)的“置信度”和“自信心” :LLM的“自信”不是“什么都能答”,而是“该答的答得准,不该答的敢说不”。

如何增强LLM(大语言模型)的“置信度”和“自信心”

如何增强LLM(大语言模型)的“置信度”和“自信心” :LLM的“自信”不是“什么都能答”,而是“该答的答得准,不该答的敢说不”。_第1张图片
如何增强LLM(大语言模型)的“置信度”和“自信心” :LLM的“自信”不是“什么都能答”,而是“该答的答得准,不该答的敢说不”。_第2张图片
Please provide a firm answer, and for those who don’t know, please reply ‘unknown’

LLM(大语言模型)的“置信度”(对输出内容的准确性判断)和“自信心”(稳定输出可靠信息的能力),核心逻辑与传统模型相通——让模型在“已知且可靠的知识范围内输出”,同时避免“强行回答陌生问题”

但LLM因生成式特性(输出连贯文本而非概率值),增强方式更侧重“引导模型清晰表达确定性”和“规避知识盲区”

一、从“提示词(Prompt)”入手:直接告诉模型“不确定就说不知道”

这是零成本、立即可用的方式,通过语言引导修正模型的输出习惯。

  1. 明确要求模型标注“确定性程度”
    在提问时加入对置信度的提示,例如:

    • “回答以下问题,并在结尾标注你的确定性(高/中/低):‘地球到月球的距离是多少?’”
    • <

你可能感兴趣的:(教学,2021,AI,python,2024大模型以及算力,语言模型,人工智能,自然语言处理,深度学习,transformer,机器学习)