大模型面试题总结

文章目录

    • 一、大模型(LLMs)基础面
    • 二、大模型(LLMs)进阶面
    • 三、大模型(LLMs)微调面
    • 四、大模型(LLMs)langchain面
      • 1. 基于LLM+向量库的文档对话 基础面
      • 2. 基于LLM+向量库的文档对话 优化面
      • 3. LangChain的概念面试问题
      • 4.LangChain的一些模块提问
      • 5.LangChain的业务提问
      • 6.LangChain的问题解决
    • 五、LoRA、QLoRA、AdaLoRA篇
    • 六、Fine tune
      • 1)基础概念
      • 2)为什么需要 P-tuning v2?
      • 3)为什么需要 P-tuning?
      • 4)为什么需要 指示微调(Prompt-tuning)?
      • 5)为什么需要 前缀微调(Prefix-tuning)?
      • 6)适配器微调(Adapter-tuning)
    • 七、大模型(LLMs)参数高效微调(PEFT) 面
    • 八、大模型(LLMs)推理面
    • 九、大模型(LLMs)评测面
    • 十、大模型(LLMs)强化学习面
    • 十一、大模型(LLMs)训练集面
    • 十二、LLMs 位置编码篇
    • 十三、简单介绍一下 SentencePiece 思路?
    • 十四、Layer Normalization 篇
    • 十五、LLMs 激活函数篇
    • 十六、一些面试问题提问
      • 1)为什么会出现 LLMs 复读机问题?
      • 2)llama 输入句子长度理论上可以无限长吗?
      • 3)什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
      • 4)如何让大模型处理更长的文本?
    • 十七、面试高频点
    • 十九、其他面试问题
    • 二十、题外音(社招来源)

一、大模型(LLMs)基础面

  1. 目前 主流的开源模型体系 有哪些?
  2. prefix LM 和 causal LM 区别是什么?
  3. 涌现能力是啥原因?
  4. 大模型LLM的架构介绍?

二、大模型(LLMs)进阶面

  1. llama 输入句子长度理论上可以无限长吗?
  2. 什么是 LLMs 复读机问题?
  3. 为什么会出现 LLMs 复读机问题?
  4. 如何缓解 LLMs 复读机

你可能感兴趣的:(服务器,python,大模型面试笔记)