语言模型幻觉的成因解析:从数据到生成的潜在风险

        你碰到过大语言模型生成了错误或捏造事实的回答吗?这种现象简称AI幻觉。

        AI模型创造的内容确实让人眼前一亮,执行效率更没的说。在与AI模型的对话中,假设你对这个话题所属领域的知识一窍不通,盲目信任,那你大概率会被AI误导。

        发生AI幻觉的因素是多方面的,AI幻觉是在哪个环节中埋下伏笔的呢?

训练数据污染或滞后

        《大语言模型如何“听懂”你的需求?——运行机制四步揭秘》文章中介绍了模型运行的基本原理,模型倾向于选择语言共现概率高的答案,所以训练数据的质量很关键,如果训练数据包含大量错误或虚假信息。

        例如输入:"拿破仑发明了什么?

        由于训练数据中"拿破仑发明蒸汽机"出现频率高于真实历史"拿破仑推动民法典",模型输出:可能生成"蒸汽机"(流畅但错误)而非"民法典"(准确但低频) 。

        另外,模型训练完成后,所有知识都是静态的,无法再自动修正训练后的知识,即使数据准确,若缺乏持续更新机制,也会逐渐过时。

        例如:训练数据截止2023年10月的模型,无法回答2024年发布的科技进展。

生成陷阱

        模型的解码策略缺陷,模型生成结果所遵循的“策略”影响生成质量,贪心搜索和随机采样等策略可能导致错误累积。例如贪心搜索会因局部最优忽略全局合理性。

如下表示例:

策略

幻觉风险来源

示例

贪心搜索

错误累积放大

首词选错导致后续全错

随机采样

低概率错误答案可能被选中

温度参数过高增加胡编概率

知识困境

        知识冲突:模型的参数量代表模型训练数据的规模,有限的参数容量内可能存在两个完全冲突的知识。        

        通常可能认为,参数量越大,模型知识越多,但参数量低的模型不意味着模型能力一定差,模型的参数量决定其表征能力上限,更大参数量的模型通常能编码更复杂的语言规律,但知识准确性仍需依赖训练数据质量。

        例如:70B模型可能同时记忆"冥王星是行星"(旧知识)和"冥王星被降级"(新知识),而输出结果取决于提问方式触发的关联权重。

        相似度陷阱:检索精读问题的相似度陷阱本质,指的是向量检索可能混淆语义相近但事实不同的内容。

        例如:"新冠疫苗有效率95%" vs "新冠疫苗有效率不是95%" → 高相似度,但含义相反,造成生成结果与事实情况有差异。

应用交互

        对话式生成模型,对话内容是开放性的,当发生下列对话场景时,容易引发模型幻觉:

        1. 长尾知识缺失:当问题涉及训练数据中的**低频领域**(如专业医学细节),模型因缺乏足够学习样本,易生成虚构内容。

        2. 提问模糊与数据偏差:如"冰箱制作核武器",模型会基于统计模式合成看似合理但物理不可行的步骤,例:建议"用冷冻室增强核材料稳定性"。

你可能感兴趣的:(人工智能,机器学习,深度学习)