Skip to content

LLMs interview notes and answers:该仓库主要记录大模型(LLMs)算法工程师相关的面试题和参考答案

License

Notifications You must be signed in to change notification settings

reilf/awesome_LLMs_interview_notes

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

54 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

awesome_LLMs_interview_notes

LLMs interview notes and answers

问题来自 LLMs 千面郎君: km1994 - LLMs_interview_notes

答案 为 自己编写,不保证正确,仅供参考。

  • 大模型(LLMs)基础面
    • 1. 目前 主流的开源模型体系 有哪些?
    • 2. prefix LM 和 causal LM 区别是什么?
    • 3. 涌现能力是啥原因?
    • 4. 大模型LLM的架构介绍?
  • 大模型(LLMs)进阶面
    • 1. LLMs 复读机问题
      • 1. 什么是 LLMs 复读机问题?
      • 2. 为什么会出现 LLMs 复读机问题?
      • 3. 如何缓解 LLMs 复读机问题?
    • 2. llama 系列问题
      • 1. llama 输入句子长度理论上可以无限长吗?
    • 3. 什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
    • 4. 各个专业领域是否需要各自的大模型来服务?
    • 5. 如何让大模型处理更长的文本?
  • 大模型(LLMs)微调面
    • 1. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
    • 2. 为什么SFT之后感觉LLM傻了?
    • 3. SFT 指令微调数据 如何构建?
    • 4. 领域模型Continue PreTrain 数据选取?
    • 5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
    • 6. 领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
    • 7. 进行SFT操作的时候,基座模型选用Chat还是Base?
    • 8. 领域模型微调 指令&数据输入格式 要求?
    • 9. 领域模型微调 领域评测集 构建?
    • 10. 领域模型词表扩增是不是有必要的?
    • 11. 如何训练自己的大模型?
    • 12. 训练中文大模型有啥经验?
    • 13. 指令微调的好处?
    • 14. 预训练和微调哪个阶段注入知识的?
    • 15. 想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
    • 16. 多轮对话任务如何微调模型?
    • 17. 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
    • 18. 微调模型需要多大显存?
    • 19. 大模型LLM进行SFT操作的时候在学习什么?
    • 20. 预训练和SFT操作有什么不同
    • 21. 样本量规模增大,训练出现OOM错
    • 22. 大模型LLM进行SFT 如何对样本进行优化?
    • 23. 模型参数迭代实验
  • 大模型(LLMs)langchain面
    • 大模型(LLMs)langchain 面
      • 1. 什么是 LangChain?
      • 2. LangChain 包含哪些 核心概念?
        • 1. LangChain 中 Components and Chains 是什么?
        • 2. LangChain 中 Prompt Templates and Values 是什么?
        • 3. LangChain 中 Example Selectors 是什么?
        • 4. LangChain 中 Output Parsers 是什么?
        • 5. LangChain 中 Indexes and Retrievers 是什么?
        • 6. LangChain 中 Chat Message History 是什么?
        • 7. LangChain 中 Agents and Toolkits 是什么?
      • 3. 什么是 LangChain Agent?
      • 4. 如何使用 LangChain ?
      • 5. LangChain 支持哪些功能?
      • 6. 什么是 LangChain model?
      • 7. LangChain 包含哪些特点?
      • 8. LangChain 如何使用?
        • 1. LangChain 如何调用 LLMs 生成回复?
        • 2. LangChain 如何修改 提示模板?
        • 3. LangChain 如何链接多个组件处理一个特定的下游任务?
        • 4. LangChain 如何Embedding & vector store?
      • 9. LangChain 存在哪些问题及方法方案?
        • 1. LangChain 低效的令牌使用问题
        • 2. LangChain 文档的问题
        • 3. LangChain 太多概念容易混淆,过多的“辅助”函数问题
        • 4. LangChain 行为不一致并且隐藏细节问题
        • 5. LangChain 缺乏标准的可互操作数据类型问题
      • 10. LangChain 替代方案?
    • 基于LLM+向量库的文档对话 经验面
      • 1. 基于LLM+向量库的文档对话 基础面
        • 1. LLMs 存在模型幻觉问题,请问如何处理?
        • 2. 基于LLM+向量库的文档对话 思路是怎么样?
        • 3. 基于LLM+向量库的文档对话 核心技术是什么?
        • 4. 基于LLM+向量库的文档对话 prompt 模板 如何构建?
      • 2. 基于LLM+向量库的文档对话 优化面
        • 1. 痛点1:文档切分粒度不好把控,既担心噪声太多又担心语义信息丢失
        • 2. 痛点2:在基于垂直领域 表现不佳
        • 3. 痛点3:langchain 内置 问答分句效果不佳问题
        • 4. 痛点4:如何 尽可能召回与query相关的Document 问题
        • 5. 痛点5:如何让LLM基于query和context得到高质量的response
      • 3. 基于LLM+向量库的文档对话 工程示例面
        • 1. 避坑记录
        • 2. 本地知识库问答系统(Langchain-chatGLM)
  • 大模型(LLMs)参数高效微调(PEFT) 面
  • 大模型(LLMs)推理面
    • 1. 为什么大模型推理时显存涨的那么多还一直占着?
    • 2. 大模型在gpu和cpu上推理速度如何?
    • 3. 推理速度上,int8和fp16比起来怎么样?
    • 4. 大模型有推理能力吗?
    • 5. 大模型生成时的参数怎么设置?
    • 6. 有哪些省内存的大语言模型训练/微调/推理方法?
    • 7. 如何让大模型输出合规化
    • 8. 应用模式变更
  • 大模型(LLMs)评测面
  • 大模型(LLMs)强化学习面
  • 大模型(LLMs)软硬件配置面
  • 大模型(LLMs)训练集面
  • 大模型(LLMs)显存问题面
  • 大模型(LLMs)分布式训练面
  • 大模型(LLMs)agent 面

About

LLMs interview notes and answers:该仓库主要记录大模型(LLMs)算法工程师相关的面试题和参考答案

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published